Refine
Year of publication
Document Type
- Article (30731)
- Part of Periodical (11922)
- Book (8312)
- Doctoral Thesis (5734)
- Part of a Book (3721)
- Working Paper (3388)
- Review (2878)
- Contribution to a Periodical (2369)
- Preprint (2200)
- Report (1544)
Language
- German (42597)
- English (29553)
- French (1067)
- Portuguese (723)
- Multiple languages (314)
- Croatian (302)
- Spanish (301)
- Italian (195)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (75699) (remove)
Keywords
- Deutsch (1038)
- Literatur (809)
- taxonomy (766)
- Deutschland (543)
- Rezension (491)
- new species (453)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Übersetzung (271)
Institute
- Medizin (7767)
- Präsidium (5228)
- Physik (4543)
- Wirtschaftswissenschaften (2710)
- Extern (2661)
- Gesellschaftswissenschaften (2378)
- Biowissenschaften (2195)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1775)
- Center for Financial Studies (CFS) (1632)
The Cueva del Azufre in Tabasco, Mexico, is a nutrient-rich cave and its inhabitants need to cope with high levels of dissolved hydrogen sulfide and extreme hypoxia. One of the successful colonizers of this cave is the poeciliid fish Poecilia mexicana, which has received considerable attention as a model organism to examine evolutionary adaptations to extreme environmental conditions. Nonetheless, basic ecological data on the endemic cave molly population are still missing; here we aim to provide data on population densities, size class compositions and use of different microhabitats. We found high overall densities in the cave and highest densities at the middle part of the cave with more than 200 individuals per square meter. These sites have lower H2S concentrations compared to the inner parts where most large sulfide sources are located, but they are annually exposed to a religious harvesting ceremony of local Zoque people called La Pesca. We found a marked shift in size/age compositions towards an overabundance of smaller, juvenile fish at those sites. We discuss these findings in relation to several environmental gradients within the cave (i.e., differences in toxicity and lighting conditions), but we also tentatively argue that the annual fish harvest during a religious ceremony (La Pesca) locally diminishes competition (and possibly, cannibalism by large adults), which is followed by a phase of overcompensation of fish densities.
The article consists in a comparative reading of three novels: Um rio chamado tempo by Mia Couto, Le pain des corbeaux by Lhoussain Azergui and Paw królowej by Dorota Masłowska. In spite of the difference of the historical circumstances of Mozambique, Morocco and Poland, these three books meet at an intersecting point: the emergence of an intelligentsia that uses literacy and writing as an instrument to deconstruct the post-colonial concept of nation and to operate a trans-colonial renegotiation of identity. By the notion of trans-colonial, I understand the opposition against new kinds of symbolic violence that emerged after the end of the colonial period; here this new form of oppression is related to the concept of national unity – an artificial construct that leaves no place for a dualism or pluralism of cultural reality (two shores of the Zambezi river, Arab and Berber dualism in Morocco, "small homelands" in Poland).
The young heroes of the novels grasp the pen in order to break through the falseness or the taboos created by the fathers, establishing, at the same time, the relation of solidarity with the world of the grandfathers. The act of writing becomes an actualization of the ancestral universe of magic. The settlement of accounts with the parental generation concerns the vision of nation built upon the resistance against the colonizer (it also refers to the Polish cultural formation, based on the tradition of uprisings and resistance against the Russians).
The release of RNA-containing extracellular vesicles (EV) into the extracellular milieu has been demonstrated in a multitude of different in vitro cell systems and in a variety of body fluids. RNA-containing EV are in the limelight for their capacity to communicate genetically encoded messages to other cells, their suitability as candidate biomarkers for diseases, and their use as therapeutic agents. Although EV-RNA has attracted enormous interest from basic researchers, clinicians, and industry, we currently have limited knowledge on which mechanisms drive and regulate RNA incorporation into EV and on how RNA-encoded messages affect signalling processes in EV-targeted cells. Moreover, EV-RNA research faces various technical challenges, such as standardisation of EV isolation methods, optimisation of methodologies to isolate and characterise minute quantities of RNA found in EV, and development of approaches to demonstrate functional transfer of EV-RNA in vivo. These topics were discussed at the 2015 EV-RNA workshop of the International Society for Extracellular Vesicles. This position paper was written by the participants of the workshop not only to give an overview of the current state of knowledge in the field, but also to clarify that our incomplete knowledge – of the nature of EV(-RNA)s and of how to effectively and reliably study them – currently prohibits the implementation of gold standards in EV-RNA research. In addition, this paper creates awareness of possibilities and limitations of currently used strategies to investigate EV-RNA and calls for caution in interpretation of the obtained data.
Rhabdomyosarcoma (RMS), the most common cancer of connective tissues in pediatrics, is often resistant to conventional therapies. One underlying mechanism of this resistance is the overexpression of Inhibitor of Apoptosis (IAP) proteins, leading to a dysfunctional cell death program within tumor cells. Smac mimetics (SM) are small molecules that can reactivate the cell death program by antagonizing IAP proteins and thereby compensating their overexpression. Here, we report that SM sensitize two RMS cell lines (RD and RH30) toward natural killer (NK) cell-mediated killing on the one hand, and increase the cytotoxic potential of NK cells on the other. The SM-induced sensitization of RH30 cells toward NK cell-mediated killing is significantly reduced through blocking tumor necrosis factor-related apoptosis-inducing ligand (TRAIL) on NK cells prior to coculture. In addition, the presence of zVAD.fmk, a pancaspase inhibitor, rescues tumor cells from the increase in killing, indicating an apoptosis-dependent cell death. On the NK cell side, the presence of SM in addition to IL-2 during the ex vivo expansion leads to an increase in their cytotoxic activity against RH30 cells. This effect is mainly TNFα-dependent and partially mediated by NK cell activation, which is associated with transcriptional upregulation of NF-κB target genes such as IκBα and RelB. Taken together, our findings implicate that SM represent a novel double-hit strategy, sensitizing tumor and activating NK cells with one single drug.
Current anti-epileptic drugs (AEDs) act on a limited set of neuronal targets, are ineffective in a third of patients with epilepsy, and do not show disease-modifying properties. MicroRNAs are small noncoding RNAs that regulate levels of proteins by post-transcriptional control of mRNA stability and translation. MicroRNA-134 is involved in controlling neuronal microstructure and brain excitability and previous studies showed that intracerebroventricular injections of locked nucleic acid (LNA), cholesterol-tagged antagomirs targeting microRNA-134 (Ant-134) reduced evoked and spontaneous seizures in mouse models of status epilepticus. Translation of these findings would benefit from evidence of efficacy in non-status epilepticus models and validation in another species. Here, we report that electrographic seizures and convulsive behavior are strongly reduced in adult mice pre-treated with Ant-134 in the pentylenetetrazol model. Pre-treatment with Ant-134 did not affect the severity of status epilepticus induced by perforant pathway stimulation in adult rats, a toxin-free model of acquired epilepsy. Nevertheless, Ant-134 post-treatment reduced the number of rats developing spontaneous seizures by 86% in the perforant pathway stimulation model and Ant-134 delayed epileptiform activity in a rat ex vivo hippocampal slice model. The potent anticonvulsant effects of Ant-134 in multiple models may encourage pre-clinical development of this approach to epilepsy therapy.
Borrelia (B.) miyamotoi, an emerging tick-borne relapsing fever spirochete, resists complement-mediated killing. To decipher the molecular principles of immune evasion, we sought to identify determinants contributing to complement resistance. Employing bioinformatics, we identified a gene encoding for a putative Factor H-binding protein, termed CbiA (complement binding and inhibitory protein A). Functional analyses revealed that CbiA interacted with complement regulator Factor H (FH), C3, C3b, C4b, C5, and C9. Upon binding to CbiA, FH retained its cofactor activity for Factor I-mediated inactivation of C3b. The Factor H-binding site within CbiA was mapped to domain 20 whereby the C-terminus of CbiA was involved in FH binding. Additionally, CbiA directly inhibited the activation of the classical pathway and the assembly of the terminal complement complex. Of importance, CbiA displayed inhibitory activity when ectopically produced in serum-sensitive B. garinii G1, rendering this surrogate strain resistant to human serum. In addition, long-term in vitro cultivation lead to an incremental loss of the cbiA gene accompanied by an increase in serum susceptibility. In conclusion, our data revealed a dual strategy of B. miyamotoi to efficiently evade complement via CbiA, which possesses complement binding and inhibitory activities.
Saccharomyces cerevisiae is a natural producer of isobutanol, which has more advantages as biofuel than ethanol, i.e. superior combustion energy, weaker corrosive action and reduced aqueous miscibility. Isobutanol is produced by the combination of the valine biosynthesis and the Ehrlich pathway. In this work, an industrial strain was employed for isobutanol production, in which the valine pathway was relocated into the cytosol. The valine pathway in yeast has a cofactor imbalance, since the glycolysis produces NADH, while Ilv5 employs NADPH for the reaction. Therefore, the cofactor specificity of the pathway was rebalanced with exchange of Ilv5 by an NADH-consuming mutant, IlvC6E6. Furthermore, Ilv6, which regulates the feed-back inhibition of the valine biosynthesis, was tested to boost isobutanol production; however, none of these Ilv6 alternatives could greatly enhance isobutanol production. Therefore, due to a still low production yield, the bottlenecks of the isobutanol pathway were deeper studied.
The major observed bottleneck concerned the conversion of DIV into KIV, since high concentrations of acetoin, 2,3-butandiol and, specially, DIV were observed in the fermentation supernatant, while neither KIV nor isobutyraldehyde were detected. This step is performed by the dihydroxy-acid dehydratase, Ilv3, which needs iron-sulfur clusters for its activity. Therefore, the first approach to circumvent this limitation was to increase the FeS assembly and its transference into the cytoplasm; however, Ilv3Δ19 activity was not improvement. Afterwards, Ilv3 alternatives were screened for substitution of Ilv3Δ19. Heterologous ILV3 orthologous with possible advantages were investigated, but Ilv3Δ19 was still the most promising alternative. Furthermore, sugar-acid enolases were tested as Ilv3Δ19 substitutes. These enolases also catalyze the dehydration of the substrate in the same way as Ilv3, but uses Mg2+ as cofactor. One of the employed enolases could complement valine auxotrophy; however, it allowed just a very slow growth of the Δilv3 strain and its activity could not be enhanced by mutagenesis studies.
Interestingly, we observed that once DIV is secreted out of the cell, it cannot be re-uptaken from the medium and this possibly further aggravates the pathway flux and Ilv3Δ19 activity. In order to suppress DIV waste, two strategies were formulated: the deletion of the possible DIV transporter, and the substrate channeling of DIV from IlvC6E6 to Ilv3Δ19. In order to find possible DIV export proteins, a transcriptome analysis of a strain producing high amounts of DIV against a strain producing no detected DIV were compared. Several transporters were found upregulated in the DIV producing strain, but, alone, none of these were responsible for the DIV efflux. For the substrate channeling, an artificial enzymatic net was constructed by the fusion of IlvC6E6 and Ilv319 with synthetic zippers, which have high affinity to each other, and as both enzymes are alone organized as oligomers. The use of this enzymatic net enhanced not only the isobutanol production in about 17%, but also 3-methyl-butanol production yield was 25% increased.
Nevertheless, together with bottlenecks arising from Ilv3 activity, the isobutanol production is limited by the ethanol production, which is the main product of S. cerevisiae. Therefore, in order to abolish ethanol production, PDC1 and PDC5 were deleted. Moreover, BDH1 and BDH2 were also deleted to create an NADH-driving force towards isobutanol production. However, the isobutanol yield of this mutant was even lower than that of the strain without the mentioned deletions. As a high production of isobutyric acid was observed, and it could be produced directly from KIV, different KIV decarboxylases and isobutanol dehydrogenases were investigated; but without improvement. Then, alternative pathways were abolished in other to favor isobutanol production, e.g. valine, leucine, isoleucine and panthotenate biosyntheses. Nevertheless, isobutanol yields were still low and the main byproducts were glycerol, acetoin, DIV and isobutyric acid. Despite the outcomes were not enough to enhance isobutanol production up to commercially required yields, these results help in the comprehension of the bottlenecks surrounding the isobutanol production pathway and serve as basis for further studies within the branched-chain amino acids biosynthesis and Ehrlich pathway.
Nearly 170 million people are chronically infected with HCV and thus at risk of developing liver cirrhosis and hepatocellular carcinoma. Although new and effective oral antiviral drugs are available, there is still the need for a preventive vaccine. In addition, in light of the high number of patients who are chronically infected with HCV the development of a therapeutic vaccine will present a support or even an alternative to the expensive medications.
To induce HCV-specific immune responses in a vaccine model, the HBV capsid is used as a carrier to deliver HCV antigens. Due to its icosahedral structure, the HBV capsid is highly immunogenic and helps to elicit a strong B cell response against the delivered antigens. In addition, the translocation motif (TLM) from the HBV surface protein is fused to the core protein. The TLM conveys membrane-permeability to the carrier capsid, enabling antigen transfer into the cytoplasm, and thus allows immunoproteasomal processing and MHC class I-mediated presentation of the antigen. To load the capsid with foreign antigens, a strep-Tag/streptavidin system is utilized. Recombinant capsids and antigens were purified from the E. coli production system. Detailed characterization of the carrier capsid demonstrated the proper assembly, adequate thermal stability and the successful loading of the foreign antigens onto the capsid surface.
As a further step, seven different HCV-derived proteins were produced and purified for the coupling on the surface of TLM-core particles. The characterization of their immunogenicity using this system is being performed.
Using ovalbumin as a model antigen, which is coupled to the carrier capsids via strep-Tag/streptavidin binding, shows that this system is suitable to efficiently deliver antigens into the cytoplasm of antigen-presenting cells (APCs), leading to the activation of APCs. This activation was assessed by measuring the secretion of IL-6 and TNF-α, in addition to the upregulation of activation markers (CD40, CD80, CD69, and MHC class I). Upon activation, the APCs were able to activate ova-specific CD8+ T cells measured by secreted IFN-γ, which was up to 20-folds more than IFN-γ secreted upon incubation with free ovalbumin. These data indicate that the TLM-capsid is suitable to serve as a carrier to deliver foreign antigens into the cytoplasm of APCs leading to MHC class I-mediated presentation and induction of an antigen-specific CTLs response.
Lepton pairs emerging from decays of virtual photons represent promising probes of nuclear matter under extreme conditions of temperature and density. These etreme conditions can be reached in heavy-ion collisions in various facilities around the world. Hereby the collision energy in the center-of-mass system (√SNN) varies from few GeV (SIS) to the TeV (LHC). In the energy domain of 1 - 2 GeV per nucleon (GeV/u), the HADES experiment at GSI Helmholtzzentrum für Schwerionenforschung in Darmstadt studies dielectrons and strangeness production.
Various reactions, for example collisions of pions, protons, deuterons and heavy-ions with nuclei have been studied since its installation in the year 2001. Hereby the so called DLS Puzzle was solved experimentally, with remeasuring C+C at 1 and 2 GeV/u and by careful studies of inclusive pp and pn reactions at 1.25 GeV. With these measurements the so-called reference spectrum was established. Measurements of e+ e− production Ar+KCl showed an enhancement on the dilepton spectrum above the trivial NN back-
ground. Theory predicts a strong enhancement of medium radiation with the system size, due to large production of fast decaying baryonic resonances like ∆ and N∗ . The heaviest system measured so far was Au+Au at a kinetic beam energy of 1.23 GeV/u. The precise determination of the medium radiation depends
on a precise knowledge of the underlying hadronic cocktail composed of various sources contributing to the measured dilepton spectrum. In general the medium radiation needs to be separated from contributions coming from long-lived particles, that decay after the freeze out of the system. For a more model independent
understanding of the dilepton cocktail the production cross sections of these particles need to measured independently. In the related energy regime the main contributers are π0 and η Dalitz decays. Both mesons have a dominant decay into two real photons and have been reconstructed successfully in this channel. Since HADES has no electromagnetic calorimeter the mesons can not be identified in this decay channel directly. In this thesis the capability of HADES to detect e+ e− pairs from conversions of real photons is demonstrated.
Therefore not only the conversion probability but also the resulting efficiencies are shown. Furthermore, the reconstruction method for neutral mesons will be explained and the resulting spectra are interpreted. The measurement of neutral pions is compared to the independent measured charged pion distribution, and
extrapolated to full phase space. An integrated approach is used to determine the η yield. Both measurement are compared to the world data and to theory model claculations. Finally, the measurements will be used together with the reconstructed dilepton spectra to determine the amount and the properties of in medium radiation in the Au+Au system.
The mainstream law and economics approach has dominated positive analysis and normative design of economic regulations. This approach represents a form of applied neoclassical and new institutional economics. Neoclassical and/or new institutional economic theories, models, and analytical concepts are applied automatically to economic regulatory problems.
This automatic application of neoclassical economics to economic regulatory problems loses sight of the valid insights of non-neoclassical schools of economic thought and theories, which may illuminate important aspects of the regulatory problems. This thesis, therefore, advocates an integrated law and economics approach to economic regulations. This approach identifies the relevant insights of neoclassical and non-neoclassical schools of thought and theories and refines them through a process of cross-criticism. In this process, the insights of each school of thought are subjected to the critiques of other schools of thought. The resulting refined insights, which are more likely to be valid, are then integrated consistently through various techniques of integration.
Not only does neoclassical (micro and macro) law and economics overlook the valid insights of non-neoclassical schools of thought, it is also highly reductionist. It ignores the interdependencies of legal institutions, highlighted mainly by the comparative capitalism literature, and the structural interlinkages among socio-economic actors, highlighted by economic sociology and complexity economics. Rather, it takes rational individuals and their interactions subject to the constraint of isolated institution(s) as its unit of analysis. In place of this reductionist perspective, the thesis argues for a systemic approach to economic regulations. This systemic perspective replaces the reductionist unit of neoclassical regulatory analysis with a systemic unit of analysis that consists of the least non-decomposable actors’ network and its associated least non-decomposable institutional network. Then, the thesis develops an operationalized and replicable systemic framework for systemic analysis and design of institutional networks.
Both the systemic and integrated approaches are theoretically consistent and complementary. The systemic approach is in essence a way of thinking that requires a broad and rich informational basis that can be secured by using the integrated approach. Due to their complementarity, they give rise to what I call “the integrated and systemic law and economics approach.” The thesis operationalizes this approach by setting out well-defined replicable steps and applying them to concrete regulatory problems, namely, the choice of a corporate governance model for developing countries and the development of a normative theory of economic regulations. These concrete applications demonstrate the critical bite of the integrated and systemic approach, which reveals significant shortcomings of mainstream law and economics’ answers to these regulatory questions. They also show the constructive potential of the integrated and systemic approach in overcoming the critiques advanced to the neoclassical regulatory conclusions.
The operationalized integrated and systemic approach is both a law and economics as well as a law and development approach. It does not only provide an alternative to mainstream law and economics analysis and design of economic regulations. It also fills a significant analytical lacuna in the law and development literature that lacks an analytical framework for analysis and design of context-specific legal institutions that can promote economic development in developing economies.
In the adult mammalian brain stem cells within defined neurogenic niches retain the capacity for lifelong de novo generation of neurons. The subventricular zone (SVZ) of the lateral ventricles and the subgranular layer (SGL) of the hippocampal dentate gyrus (DG) have been identified as the two major sites of adult neurogenesis. Moreover, the third ventricle in the hypothalamus is emerging as a new neurogenic niche in the adult brain. Extracellular purine and pyrimidine nucleotides are involved in the control of both embryonic and adult neuro-genesis. These nucleotides act via ionotropic P2X or metabotropic P2Y receptors and studies of the adult SVZ and the DG provide strong evidence that ATP promotes progenitor cell proliferation in this stem cell rich regions. Previous studies have shown that the extracellular nucleotide-hydrolyzing enzyme NTPDase2 is highly expressed by adult neural stem and progenitor cells of the SVZ and the rostral migratory stream (RMS), the hippocampal SGL, and the third ventricle. NTPDase2 preferentially hydrolyzes extracellular nucleoside triphosphates (NTPs) and, to a lower extent, diphosphates, thus modulating their effect on nearby nucleotide receptors. Deletion of the enzyme increases extracellular NTP concentrations, and might indicate roles of purinergic signaling in adult neurogenesis. As shown by enzyme histochemistry, genetic deletion of NTPDase2 essentially eliminates ATPase activity in neurogenic niches but does not affect protein expression levels and activity of other ectonucleotidases. Lack of NTPDase2 leads to expansion of the hippocampal stem cell pool as well as of the inter-mediate progenitor type-2 cells. Cell expansion is lost at around type-3 stage, paralleled by increased labeling for caspase-3, indicating increased apoptosis, and decreased levels in CREB phosphorylation in doublecortin-expressing cells, diminishing survival in this cell population. In line with increased cell death, P2Y12 receptor-expressing microglia is enriched at the hilus orientated side of the granule cell layer. These data strongly suggest that NTPDase2 functions as central homeostatic regulator of nucleotide-mediated neural progenitor cell proliferation and expansion in the adult brain by balancing extracellular nucleotide concentrations and activation of purinergic receptors.
In order to further characterize the role of purinergic signaling in adult neurogenesis, the ADP-sensitive P2Y13 receptor was identified as a potential candidate whose activation might inhibit neurogenesis in the hippocampal dentate gyrus and the newly identified neurogenic niche at the third ventricle. Deletion of P2ry13 increased progenitor cell proliferation and long-term progenitor survival as well as new neuron formation in the hippocampal neurogenic niche. This was further paralleled by increased thickening of the granule cell layer, CREB phosphorylation, and expression of the neuronal activity marker c-Fos. Increased progenitor cell proliferation and progenitor survival persist in aged P2ry13 knockout animals. However, in the ventral dentate gyrus proliferation and expansion levels of progenitor cells did not differ significantly from the wild type. This study strongly supports the notion that extracellular nucleotides significantly contribute to the control of adult neurogenesis in the dentate gyrus in situ. Data in this work suggest that activation of the P2Y13 receptor dampens progenitor cell proliferation, new neuron formation, and neuronal activity. In contrast to several in vitro studies and studies in the SVZ in situ, a contribution of the ATP/ADP-sensitive P2Y1 receptor could not be confirmed in the dentate gyrus in vivo.
To unravel implications of purinergic signaling and P2Y13 receptor action in the control of adult hypothalamic neurogenesis a pilot study was performed. Mice null for P2ry13 revealed increased progenitor cell proliferation at the third ventricle as well as long-term progeny survival and new neuron formation in the hypothalamus. In contrast to results obtained in the dentate gyrus expression of the neuronal activity marker c-Fos was significantly decreased in hypothalamic nuclei, indicating increased inhibition of appetite-regulating neuronal circuits by surplus neurons in knockout animals. These data provide first evidence that extracellular nucleotide signaling contributes to the control of adult hypothalamic neurogenesis in situ. Activation of the P2Y13 receptor inhibits progenitor cell proliferation, long-term survival and neuron formation and therefore controls inhibition of appetite-regulating circuits in the adult rodent hypothalamus.
In dieser Arbeit wurde YM155 anhand eines Neuroblastom-Zellmodells bezüglich seiner antitumoralen Wirkung, sowie möglicher Resistenzmechanismen untersucht. Mit Hilfe eines Viabilitäts-‚Screenings‘ wurde eine Auswahl von 113 chemosensitiven und chemoresistenten Neuroblastomzellen auf mögliche Kreuzresistenzen gegen YM155 untersucht. Hinsichtlich der IC50 Werte gegen YM155, lagen insgesamt 74 % der untersuchten Zelllinien im therapeutisch erreichbaren Bereich von unter 50 nM. Zusätzlich wurden Neuroblastom-, Mammakarzinom- und Prostatakarzinomzellen an eine klinisch relevante YM155 Konzentration adaptiert. Diese zeigten wiederum, dass durch die Adaptierung hervorgerufene Expressionsänderung des ABC-Transporters ABCB1 und des ‚solute carrier‘ Protein SLC35F2 eine bedeutsame Rolle hinsichtlich des Resistenzmechanismus gegen YM155 spielen. Durch den Einsatz von spezifischen ABCB1-Inhibitoren, als auch durch siRNA-vermittelte Reduzierung von ABCB1 konnte eine Abhängigkeit für die Wirksamkeit YM155 von ABCB1 in Neuroblastomzellen bestätigt werden. Des Weiteren wurde in den untersuchten Zelllinien ein Zusammenhang zwischen der Wirkung von YM155 und der Expression des ‚solute carrier‘ Proteins SLC35F2 hergestellt. Dazu wurden Zellen mit verminderter SLC35F2 Expression verwendet, welche durch Transduktion mit einem für eine SLC35F2 spezifische shRNA kodierenden Vektor etabliert wurden. Dabei führte eine verminderte SLC35F2 Expression zu einer starken Minderung der Sensitivität gegen YM155. Das Zusammenspiel dieser beiden Transporter und der damit verbundene Resistenzmechanismus gegen YM155, konnte in fast allen etablierten YM155-resistenten Zelllinien (UKF-NB-3rYM15520, 22RV1rYM155300, PC-3rYM15520, HCC-1806rYM15520 und MDA-MB-231rYM15520) gezeigt werden. Wobei diese Zellen unabhängig von der Tumorentität als Resistenzmechanismus gegen YM155 entweder eine signifikant induzierte ABCB1 Expression (verstärkter YM155 Efflux) und/oder eine verminderte SLC35F2 Expression (verringerter YM155 Influx) entwickelten. Außerdem konnte mit Hilfe der p53-depletierten Zelllinie UKF-NB-3pc-p53 eine Abhängigkeit der YM155 Wirkung vom Tumorsuppressor p53 nachgewiesen werden, wobei es durch die Depletierung von p53 zu einer verminderten Sensitivität der Zellen gegen YM155 kam. Zudem kam es durch die Nutlin-3 hervorgerufene p53 Aktivierung und Akkumulierung zu einer Verstärkung der YM155 Wirkung in den untersuchten Zellen. Diese Ergebnisse deuten darauf hin, dass der p53 Status von Zellen einen Einfluss auf deren YM155 Resistenz haben kann. Da in der Behandlung von Neuroblastomen neben der Chemotherapie auch Bestrahlung eingesetzt wird, wurde zusätzlich untersucht ob eine Adaptierung von Neuroblastomzellen an YM155 zu einer verminderten Sensitivität gegen Bestrahlung führen kann. Da die im Rahmen dieser Arbeit untersuchten UKF-NB-3 Zelllinien (UKF-NB-3 und UKF-NB-3rYM15520) eine ähnliche Sensitivität gegenüber der Bestrahlung aufwiesen, konnte kein Zusammenhang zwischen einer Adaptierung an YM155 und der Ausbildung einer Bestrahlungsresistenz gezeigt werden.
Ein weiterer wichtiger Teil dieser Arbeit war es, den primären Wirkmechanismus von YM155 in Neuroblastomzellen zu untersuchen. In vorangegangenen Studien wurde die vom Hersteller beschriebene Wirkung von YM155 als Survivin-Inhibitor in Frage gestellt. Stattdessen soll der primäre Apoptose-induzierende Effekt in erster Linie durch DNA-Schäden hervorgerufen werden, während die Survivin Inhibierung lediglich darauf folgen soll. In einer zeitlichen und konzentrationsabhängigen Kinetik der YM155 Behandlung konnte in UKF-NB-3 Zellen der genaue Zeitpunkt der Survivin-Inhibierung und der Induktion der DNA-Schadensantwort ermittelt werden. Dabei konnte in der vorliegenden Arbeit gezeigt werden, dass in Neuroblastomzellen als Antwort auf die YM155 Behandlung zuerst eine Survivin-Inhibierung erfolgt, und die DNA-Schadensantwort als Folge dieser induziert wird. Darüber hinaus belegte die siRNA-vermittelte Survivin-Inhibierung in UKF-NB-3 und UKF-NB-6, dass eine fehlende Survivin Expression die DNA-Schadensantwort induziert.
Zusammenfassend konnte in dieser Arbeit erstmals in YM155 adaptierten Neuroblastomzellen der Resistenzmechanismus gegen YM155 näher untersucht werden und darüber hinaus wurde demonstriert, dass die Wirkung von YM155 in Neuroblastomzellen nicht auf die Induktion der DNA-Schadensantwort beruht, sondern primär auf die Survivin-Inhibierung zurückzuführen ist.
The baker’s yeast Saccharomyces cerevisiae is a valuable and increasingly important microorganism for industrial applications (Hong and Nielsen, 2012). Its robustness concerning process conditions like low pH, osmotic and mechanical stress as well as toxic compounds is an advantage. Moreover, S. cerevisiae is ‘generally regarded as safe’ (GRAS). The model organism has been studied intensively. The collected data, including genomic, proteomic and metabolic information, can be used to genetically modify and improve its metabolism. Fatty acids and fatty acid derivatives have wide applications as biofuels, biomaterials, and other biochemicals. Several studies have been dealing with the overproduction of fatty acids and derivatives thereof in S. cerevisiae. The fatty acid biosynthesis starting with acetyl-CoA requires two enzymes, the acetyl-CoA carboxylase (Acc1p) and the fatty acid synthase complex (FAS), to produce acyl-CoA esters with predominantly 16 to 18 carbon atoms chain length (Lynen et al., 1980). For the synthesis of monounsaturated fatty acids in S. cerevisiae the ER bound acyl-CoA desaturase, Ole1p is essential (Tamura et al., 1976; Certik and Shimizu, 1999).
Using S. cerevisiae, the first section of this work dealt with the heterologous characterization of potential ω1-desaturases. Due to the fact that unsaturated fatty compounds can be modified further by hydrosilylations, hydrovinylations, oxidations to epoxides, acids, aldehydes, ketones or metathesis reactions, the interest in ω1-fatty acids is tremendous (Behr and Gomes, 2010). With the intention to find enzymes in fungi, that have a terminal desaturase activity a search in different genome databases was performed. The sequences of Pex-Desat3 and Obr-TerDes were used as reference sequences. The analysed proteins from Schizophyllum commune (EFI94599.1), Schizosaccharomyces octosporus (EPX72095.1), Wallemia mellicola (EIM20316.1), Wallemia ichthyophaga (EOR00207.1) and Agaricus bisporus var. bisporus (EKV44635.1), however, finally turned out to be Δ9 desaturases. A fungal desaturase with ω1-activity could not be found. The Δ9 desaturase SCD1 from Mus musculus was crystallized by Bai et al. (2015) and the information for specific amino acids responsible for the substrate specificity or enzyme activity were allocated. In combination with sequence and enzyme activity data form ChDes1 from Calanus hyperboreus, Desat2 from Drosophila melanogaster, Pex-Desat3 from Planotortrix excessana and Obr-TerDes from Operophtera brumata single amino acid exchanges were performed in the Δ9 desaturase Ole1p from S. cerevisiae. For all mutants, only fatty acids (C16 - C18) with a double bond between carbon C9 and C10 could be found. This indicates, that all inserted amino acid exchanges do not affect the substrate specificity or the position of the introduced double bond.
In the second section the focus was in the development of a production system for fatty acids in S. cerevisiae with regard to the previously established procedures by metabolic engineering. The combination of cytosolic malate dehydrogenase (MDH3), cytosolic malate enzyme (MAE1) and a citrate- α-ketoglutarate- carrier (YHM2) should improve the availability of acetyl-CoA in the cytosol, which is an important precursor for the fatty acid biosynthesis. If the major pathway (acetyl-CoA carboxylase and fatty acid synthase) was already optimized by high expression levels than no positive effect on increased fatty acid synthesis was detectable. Only non-optimized strains, with the additional overexpression of ATP-citrate lyase and cytosolic malate dehydrogenase, lead to a 41 % (20 mg/g dcw) improvement of fatty acid synthesis. In order to increase the fatty acid content further, the additional overexpression of DGA1 and TGL3 was performed. Hence, the highest amount of fatty acids could be observed with the strain S. cerevisiae WRY1ΔFAA1ΔFAA4 (2.5 g/L ± 0.8 g/L). The additional elimination of acyl-CoA synthetase Fat1p did not improve the yield.
It was recently reported, that chain length control of the fatty acid synthesis of bacterial FAS can be changed by rational engineering (Gajewski et al., 2017a). The knowledge about bacterial FAS was transferred in this work to S. cerevisiae FAS. Mutating up to five amino acids in the FAS complex enabled S. cerevisiae to produce medium chain fatty acids (C6 - C12). Further improvement was done by metabolic pathway engineering (promoter of alcohol dehydrogenase II from S. cerevisiae (pADH2), deletion of acyl-CoA synthetase FAA2) and optimization of fermentation conditions (YEPD-bacto medium buffered with potassium phosphate). The production of medium chain fatty acids resulted in the highest yield of 464 mg/L (C6 to C12 fatty acids). Furthermore, strains were created specifically overproducing hexanoic acid (158 mg/L) and octanoic acid (301 mg/L). The characterization of transferases, which could be responsible for the de-esterification of CoA-bound fatty acids, was analysed in an additional approach. It could be shown, that the genes EHT1, EEB1 and MGL2 have an influence on the MCFA yield in the supernatant. Generally speaking, the data from the single and double deletion strains suggest that Eeb1p has a selective hydrolytic activity for hexanoic acid-CoA ester, while Eht1p shows selective hydrolytic activity for octanoic acid-CoA ester, which is in line with Saerens et al. (2006).
One of the most important shifts in mathematics learning and instruction in the last decades has taken place in the conception of the subject matter, changing from a perspective of mathematics as composed of concepts and skills to be learned, to a new one emphasizing the mathematical modelling of the reality (De Corte, 2004). This shift has had, as it is to be expected, an impact on classroom processes, and changed instructional settings and practices.
Instructional explanations, the object of study in the present work, are an interesting topic in that landscape, since they continue to be a typical form of classroom discourse, especially −but no exclusively−when new contents are introduced to the students (e.g. Leinhardt, 2001; Perry, 2000; Wittwer & Renkl, 2008). Consequently, good teachers are also supposed to be good explainers, independently whether they are the main speaker, or play the role of moderator in exchange between students (e.g. Charalambous, Hill, & Ball, 2011; Danielson, 1996; Inoue, 2009).
Despite the central role that instructional explanations play in classroom practices, current instructional quality models, which describe how effective teaching practices should look like, do not consider instructional explanations as a key element (Danielson, 1996; Klieme, Lipowsky, Rakoczy, & Ratzka, 2006; Pianta & Hamre, 2009). Moreover, aside from a few notable exceptions (Duffy, Roehler, Meloth, & Vavrus, 1986; Leinhardt & Steele, 2005; Perry, 2000), instructional explanations have not been investigated empirically within other traditions either. Thus, there is scarce of empirical work about instructional explanations and their potential contribution to promote students’ learning.
The purpose of the present work is to examine instructional explanations from a theoretical perspective as well as empirically, in order to characterize them and investigate their association with students’ learning outcomes. The underlying theoretical framework chosen to organize the study is the one proposed by Leinhardt (2001) with some adaptations according to pertinent complementary literature (Drollinger-Vetter & Lipowsky, 2006; Leinhardt & Steele, 2005).
The empirical work of this dissertation was carried out in the context of the project “Analysis of mathematic lessons” (FONIDE 209) funded by the Chilean Ministry of Education during 2007. This study, in turn, was embedded in the international extension of the research project the ‘‘Quality of instruction, learning, and mathematical understanding’’ carried out between 2000 and 2006 by the German Institute for International Educational Research (DIPF) in Frankfurt, Germany, and the University of Zurich in Switzerland (e.g. Klieme & Reusser, 2003; Klieme et al., 2006). According to the design of the original project, the study considers the inclusion of different perspectives, namely, teachers, students and external observers, by means of questionnaires, tests and classroom observation protocols.
The examination of instructional explanations in this dissertation begins in chapter 2 with the review of relevant literature and introduction of the theoretical background underpinning the study of instructional explanations. This theoretical review comprises three subsections, the first one describing the evolution of the process-product-paradigm into the actual instructional quality models that are presented in a next step. The second subsection includes a detailed theoretical presentation of explanations and instructional explanations, addressing the main theoretical issues and giving examples of the few empirical works about instructional explanations found in the literature. Finally, the third subsection with the description of Chilean teaching practices in order to contextualize the study.
Chapter 3 presents the research questions and lists the associated work hypotheses that are investigated throughout this work. Chapter 4 includes the methodological aspects of the work, indicating the description of the sample, design of the study, the methods used the gather the data and the analyses chosen to answer the proposed research questions.
Chapter 5 contains the presentation of results, which are organized by research question, starting with the results from quantitative analyses and continuing with the results from qualitative analyses. This chapter closes with a general summary of the results organized according to the central themes of the study. Finally, chapter 6 concludes with a discussion of the link between the results and the instructional explanations literature and research, or lack thereof, that originally motivated the research questions addressed in this study. This chapter finishes with a discussion of the limitations of the study and the implications of its results, as well as an examination of areas where the research on instructional explanations can be fruitfully expanded in the future.
In healthy older adults, resveratrol supplementation has been shown to improve long-term glucose control, resting-state functional connectivity (RSFC) of the hippocampus, and memory function. Here, we aimed to investigate if these beneficial effects extend to individuals at high-risk for dementia, i.e., patients with mild cognitive impairment (MCI). In a randomized, double-blind interventional study, 40 well-characterized patients with MCI (21 females; 50–80 years) completed 26 weeks of resveratrol (200 mg/d; n = 18) or placebo (1,015 mg/d olive oil; n = 22) intake. Serum levels of glucose, glycated hemoglobin A1c and insulin were determined before and after intervention. Moreover, cerebral magnetic resonance imaging (MRI) (3T) (n = 14 vs. 16) was conducted to analyze hippocampus volume, microstructure and RSFC, and neuropsychological testing was conducted to assess learning and memory (primary endpoint) at both time points. In comparison to the control group, resveratrol supplementation resulted in lower glycated hemoglobin A1c concentration with a moderate effect size (ANOVARM p = 0.059, Cohen's d = 0.66), higher RSFC between right anterior hippocampus and right angular cortex (p < 0.001), and led to a moderate preservation of left anterior hippocampus volume (ANOVARM p = 0.061, Cohen's d = 0.68). No significant differences in memory performance emerged between groups. This proof-of-concept study indicates for the first-time that resveratrol intake may reduce glycated hemoglobin A1c, preserves hippocampus volume, and improves hippocampus RSFC in at-risk patients for dementia. Larger trials with longer intervention time should now determine if these benefits can be validated and extended to cognitive function.
Evidence about distribution patterns of brain metastases with regard to breast cancer subtypes and its influence on the prognosis of patients is insufficient. Clinical data, cranial computed tomography (CT) and magnetic resonance imaging (MRI) scans of 300 breast cancer patients with brain metastases (BMs) were collected retrospectively in four centers participating in the Brain Metastases in Breast Cancer Registry (BMBC) in Germany. Patients with positive estrogen (ER), progesterone (PR), or human epidermal growth factor receptor 2 (HER2) statuses, had a significantly lower number of BMs at diagnosis. Concerning the treatment mode, HER2-positive patients treated with trastuzumab before the diagnosis of BMs showed a lower number of intracranial metastases (p < 0.001). Patients with a HER2-positive tumor-subtype developed cerebellar metastases more often compared with HER2-negative patients (59.8% vs. 44.5%, p = 0.021), whereas patients with triple-negative primary tumors had leptomeningeal disease more often (31.4% vs. 18.3%, p = 0.038). The localization of Brain metastases (BMs) was associated with prognosis: patients with leptomeningeal disease had shorter survival compared with patients without signs of leptomeningeal disease (median survival 3 vs. 5 months, p = 0.025). A shorter survival could also be observed in the patients with metastases in the occipital lobe (median survival 3 vs. 5 months, p = 0.012). Our findings suggest a different tumor cell homing to different brain regions depending on subtype and treatment. View Full-Text
Retinal OFF bipolar cells show distinct connectivity patterns with photoreceptors in the wild-type mouse retina. Some types are cone-specific while others penetrate further through the outer plexiform layer (OPL) to contact rods in addition to cones. To explore dendritic stratification of OFF bipolar cells in the absence of rods, we made use of the ‘cone-full’ Nrl-/- mouse retina in which all photoreceptor precursor cells commit to a cone fate including those which would have become rods in wild-type retinas. The dendritic distribution of OFF bipolar cell types was investigated by confocal and electron microscopic imaging of immunolabeled tissue sections. The cells’ dendrites formed basal contacts with cone terminals and expressed the corresponding glutamate receptor subunits at those sites, indicating putative synapses. All of the four analyzed cell populations showed distinctive patterns of vertical dendritic invasion through the OPL. This disparate behavior of dendritic extension in an environment containing only cone terminals demonstrates type-dependent specificity for dendritic outgrowth in OFF bipolar cells: rod terminals are not required for inducing dendritic extension into distal areas of the OPL.
Processes shaping the African Guineo-Congolian rain forest, especially in the West African part, are not well understood. Recent molecular studies, based mainly on forest tree species, confirmed the previously proposed division of the western African Guineo-Congolian rain forest into Upper Guinea (UG) and Lower Guinea (LG) separated by the Dahomey Gap (DG). Here we studied nine populations in the area of the DG and the borders of LG and UG of the widespread liana species, Chasmanthera dependens (Menispermaceae) by amplified fragment length polymorphism (AFLP), a chloroplast DNA sequence marker, and modelled the distribution based on current as well as paleoclimatic data (Holocene Climate Optimum, ca. 6 kyr BP and Last Glacial Maximum, ca. 22 kyr BP). Current population genetic structure and geographical pattern of cpDNA was related to present as well as historical modelled distributions. Results from this study show that past historical factors played an important role in shaping the distribution of C. dependens across West Africa. The Cameroon Volcanic Line seems to represent a barrier for gene flow in the present as well as in the past. Distribution modelling proposed refugia in the Dahomey Gap, supported also by higher genetic diversity. This is in contrast with the phylogeographic patterns observed in several rainforest tree species and could be explained by either diverging or more relaxed ecological requirements of this liana species.
The effect-response framework states that plant functional traits link the abiotic environment to ecosystem functioning. One ecosystem property is the body size of the animals living in the system, which is assumed to depend on temperature or resource availability, among others. For primary consumers, resource availability may directly be related to plant traits, while for secondary consumers the relationship is indirect. We used plant traits to describe resource availability along an elevational gradient on Mount Kilimanjaro, Tanzania. Using structural equation models, we determined the response of plant traits to changes in precipitation, temperature and disturbance with and assessed whether abiotic conditions or community-weighted means of plant traits are stronger predictors of the mean size of bees, moths, frugivorous birds, and insectivorous birds. Traits indicating tissue density and nutrient content strongly responded to variations in precipitation, temperature and disturbance. They had direct effects on pollination and fruit traits. However, the average body sizes of the animal groups considered could only be explained by temperature and habitat structure, not by plant traits. Our results demonstrate a strong link between traits and the abiotic environment, but suggest that temperature is the most relevant predictor of mean animal body size. Community-weighted means of plant traits and body sizes appear unsuitable to capture the complexity of plant-animal interactions.
Clustering of cardiovascular risk factors and carotid intima-media thickness : the USE-IMT study
(2017)
Background: The relation of a single risk factor with atherosclerosis is established. Clinically we know of risk factor clustering within individuals. Yet, studies into the magnitude of the relation of risk factor clusters with atherosclerosis are limited. Here, we assessed that relation.
Methods: Individual participant data from 14 cohorts, involving 59,025 individuals were used in this cross-sectional analysis. We made 15 clusters of four risk factors (current smoking, overweight, elevated blood pressure, elevated total cholesterol). Multilevel age and sex adjusted linear regression models were applied to estimate mean differences in common carotid intima-media thickness (CIMT) between clusters using those without any of the four risk factors as reference group.
Results: Compared to the reference, those with 1, 2, 3 or 4 risk factors had a significantly higher common CIMT: mean difference of 0.026 mm, 0.052 mm, 0.074 mm and 0.114 mm, respectively. These findings were the same in men and in women, and across ethnic groups. Within each risk factor cluster (1, 2, 3 risk factors), groups with elevated blood pressure had the largest CIMT and those with elevated cholesterol the lowest CIMT, a pattern similar for men and women.
Conclusion: Clusters of risk factors relate to increased common CIMT in a graded manner, similar in men, women and across race-ethnic groups. Some clusters seemed more atherogenic than others. Our findings support the notion that cardiovascular prevention should focus on sets of risk factors rather than individual levels alone, but may prioritize within clusters.
The widespread application of fertilizers has greatly influenced many processes and properties of agroecosystems, and agricultural fertilization is expected to increase even further in the future. To date, most research on fertilizer impacts has used short-term studies, which may be unrepresentative of long-term responses, thus hindering our capacity to predict long-term impacts. Here, we examined the effects of long-term fertilizer addition on key ecosystem properties in a long-term grassland experiment (Palace Leas Hay Meadow) in which farmyard manure (FYM) and inorganic fertilizer treatments have been applied consistently for 120 years in order to characterize the experimental site more fully and compare ecosystem responses with those observed at other long-term and short-term experiments. FYM inputs increased soil organic carbon (SOC) stocks, hay yield, nutrient availability and acted as a buffer against soil acidification (>pH 5). In contrast, N-containing inorganic fertilizers strongly acidified the soil (<pH 4.5) and increased surface SOC stocks by increasing the C stored in the coarse (2.8 mm-200 μm) and fine (200–50 μm) fractions. Application of N fertilizers also reduced plant species richness and the abundance of forbs and legumes. Overall, our results were broadly consistent with those observed in other very long-term studies (the Park Grass and Steinach Grassland experiments) in that fertilization effects on plant and soil properties appeared to be driven by differences in both nutrient input and changes to soil pH. We also established that the direction of long-term fertilization effects tended to be comparable with short-term experiments, but that their magnitude differed considerably, particularly where ammonium sulphate-induced acidification had occurred. We therefore conclude that short-term studies are unlikely to possess the required timeframe to accurately predict long-term responses, thus necessitating the use of long-term study sites. Such experiments should be strategically established in regions where future fertilizer use is expected to increase rapidly.
Bank regulators have the discretion to discipline banks by executing enforcement actions to ensure that banks correct deficiencies regarding safe and sound banking principles. We
highlight the trade-offs regarding the execution of enforcement actions for financial stability. Following this we provide an overview of the differences in the legal framework governing supervisors’ execution of enforcement actions in the Banking Union and the United States. After discussing work on the effect of enforcement action on bank behaviour and the real economy, we present data on the evolution of enforcement actions
and monetary penalties by U.S. regulators. We conclude by noting the importance of supervisors to levy efficient monetary penalties and stressing that a division of competences among different regulators should not lead to a loss of efficiency regarding
the execution of enforcement actions.
The centerpiece of all neuronal processes is the synaptic transmission. It consists of a complex series of events. Two key elements are the binding of synaptic vesicles (SV) to the presynaptic membrane and the subsequent fusion of the two membranes. SV are neurotransmitter-filled membranous spheres with many integral and peripheral proteins. The synaptic SNARE complex consists of three interacting proteins, which energize and regulate the fusion of the SV membrane with the presynaptic membrane. Both processes are closely orchestrated to ensure a specific release of neurotransmitter. Already many experiments have been performed, such as genetic screens and proteome analysis of SV, to determine the functions of the various proteins involved. Nevertheless, the functions of the identified proteins are still not fully elucidated. The aim of this thesis was initially applying a tandem affinity purification (TAP) of SV to identify unknown interaction partner of SV and to determine their role. This was supposed to be performed in the model organism Caenorhabditis elegans (C. elegans). The underlying mechanisms are conserved throughout the phylogentic tree and identified interaction partners will help to understand the processes in the mammalian brain. Although there is no neuron-rich tissue in C. elegans as in other model organisms, the diverse genetic methods allows a rapid creation of modified organisms and a prompt determination of the function of identified proteins. The integral SV protein synaptogyrin has been fused to a TAP-tag. The TAP-tag consists of a ProteinA, a TEV protease cleavage site and a calmodulin binding peptide (CBP). Both affinity purification steps are performed sequentially and allow a highly specific native purification of proteins and their interaction partners. Due to technical difficulties the purification strategy was modified several times during the course of this thesis and then finally abandoned for a more promising project, the SNARE complex purification. In conclusion, one of the reasons was the necessary lack of detergent.
The amended aim of this thesis has been the TAP of solubilized SNARE complex to identify unknown interaction partner and to determine their role. In order to increase the specificity of the purification, in terms of formed complexes, the two SNARE subunits, synaptobrevin (SNB-1 in C. elegans) and syntaxin (UNC-64 in C. elegans), were separately fused to the different affinity tags. As the modifications of the proteins could impair their function and lead to false interaction partners, their functionality was tested. For this purpose, the corresponding fusion constructs were expressed in strains with mutated snb¬1 and unc-64. Non-functional synaptic proteins display an altered course of paralysis in an aldicarb assay. The fusion proteins which were expressed in their respective mutant strains displayed a near to wild-type (WT) behavior in contrast to the naive mutant strains. Multiple TAP demonstrated SNB-1 signals in Western blot analysis and complex sets of proteins in the final elution step in a silver staining of SDS-PAGEs. These samples were sent with negative control (WT purification) for MS analysis to various cooperation partners. 119 proteins were identified which appeared only in data sets with SNARE proteins and not in WT samples. If proteins were detected in ≥ 2 SNARE positive MS analysis and had known neural functions or homologies to neuronal proteins in other species, they were selected for further analysis. These candidates were knocked down by RNAi and tested for synaptic function in a following aldicarb assay. The treatment with their specific RNAi resulted for mca-3 in a strong resistance, while frm-2, snap-29, ekl-6, klb-8, mdh-2, pfk-2, piki-1 and vamp-8 resulted in hypersensitivity. The most responsive genes frm-2, snap-29 and mca-3 were examined, whether they displayed a co-localization together with synaptobrevin in promoter fusion constructs or functional fusion constructs. In fluorescence microscopy images only MCA-3::YFP demonstrated neuronal expression.
In order to substantiate the synaptic nature and functionality of the MCA-3::YFP a swimming assay was performed. Here, fusion construct expressing strains, which contained mutated mca-3, were compared with untreated mutant strains and WT strains according to their behavior. In this swimming assay a partial restoration of WT behavior was shown in the MCA-3::YFP expressing mutant strains. Based on these data, we discovered with MCA 3 a new interaction partner of the SNARE complex. MCA-3 is a plasma membrane Ca2+-ATPase and was initially seen only in their role in the endocytosis. Its new putative role is the reduction of Ca2+ concentration at the bound SNARE complex. Since an interaction of syntaxin with Ca2+ channels has been demonstrated, it would be comprehensible to reduce the local concentration of Ca2+ to a minimum by tethering Ca2+ transporters to the SNARE complex.
The estimation of water balance components as well as water-related indicators on the land surface by means of global hydrological models have evolved in recent decades. Results of such models are frequently used in global- and continental-scale assessments of the current and future state of the terrestrial water cycle and provide a valuable data basis, e.g., for the Intergovernmental Panel on Climate Change. The Water – Global Assessment and Prognosis (WaterGAP) model is one of the state-of-the-art models in that field and has been in development and application for around 20 years. The evaluation, modification and application of WaterGAP is the subject of this thesis. In particular, the sensitivity of climate input data on radiation calculation and simulated water fluxes and storages is evaluated in the first part. Effects of model modification such as updated spatial input datasets, improved process representation or an alternative calibration scheme are the focus of the second part. Finally, three applications of WaterGAP give insight into the capabilities of that model, namely an estimate of global and continental water balance components, an assessment of groundwater depletion and the impact of climate change on river flow regimes. Model experiments, which are described in six journal papers as well as the appendices, were used as the basis for answering the total of 13 research questions. One of the major foci was to quantify the sensitivity of simulated water fluxes and storages to alternative climate input data. It was found that the handling of precipitation undercatch leads to the greatest difference in water balance components, especially in those areas where WaterGAP is not calibrated due to a lack of river discharge observations. The modifications of WaterGAP in the last few decades has led in general to an improved simulation of monthly river discharge, but process representation in semi-arid and arid regions still requires improvements. With the most current model version, WaterGAP 2.2b, and for the time period 1971–2000, river discharge to the oceans and inland sinks is estimated to be 40 000 km3 yr-1, whereas actual evapotranspiration is simulated as 70 500 km3 yr-1. Future research needs for WaterGAP in particular but also for the global hydrological model community in general are defined, promoting a community-driven effort for a robust assessment of the continental water cycle.
NOSTRIN belongs to the family of F-BAR proteins, which are multi-domain adaptor proteins that have emerged as important regulators of membrane remodeling and actin dynamics in a variety of vital cellular processes. They have been analyzed structurally and biochemically and overexpression studies have revealed their potential in inducing membrane curvature and tubulation. Several studies have begun to decipher the function of individual proteins, but the understanding of F-BAR protein functions in vivo is still quite limited. The F-BAR protein NOSTRIN is mainly expressed in endothelial cells and has originally been described as interaction partner of the endothelial nitric oxide synthase (eNOS), modulating eNOS subcellular localization. The phenotypic characterization of NOSTRIN knockout mice revealed decreased nitric oxide (NO) and cGMP levels, an increase in systolic blood pressure and an impairment of the acetylcholine-induced, NO-dependent relaxation of aortic rings from mice with global as well as endothelial cell-specific knockout of the NOSTRIN gene (ECKO) . These findings implied that NOSTRIN plays a role in regulating NO production in vivo, but the underlying molecular mechanisms were unclear. Therefore, this study was aimed at addressing the mechanism causing the inhibited vasodilation specifically upon stimulation with acetylcholine in NOSTRIN KO and ECKO mice, and at exploring additional roles of NOSTRIN in the signal transduction of endothelial cells.
The major acetylcholine receptor that mediates vessel relaxation upon stimulation with acetylcholine is the muscarinic acetylcholine receptor subtype M3 (M3R). In the present study NOSTRIN was identified as novel interaction partner of the M3R and important factor for the correct spatial distribution and functionality of the M3R. Moreover, it provides the first example of an F-BAR protein regulating a GPCR. Confocal immunofluorescence microscopy analysis of isolated aortae from NOSTRIN KO and WT mice indicated that NOSTRIN was necessary for the proper subcellular localization of the M3R and targeted it to the plasma membrane. A series of pulldown experiments revealed a direct interaction of NOSTRIN with the M3R. The binding required the SH3 domain of NOSTRIN and the third intracellular loop of the M3R, which has a recognized role in receptor regulation. The interaction of NOSTRIN with the M3R was confirmed by co-localization of NOSTRIN and the M3R upon overexpression in mammalian cells. Expression levels of the M3R as well as eNOS were not affected by the loss of NOSTRIN in accordance with the finding, that NOSTRIN impacts on the acetylcholine/eNOS signaling axis through regulation of the subcellular trafficking of its binding partners.
Furthermore, there were first indications for a role of NOSTRIN in facilitating the carbachol-induced calcium response in M3R-expressing cells, suggesting that NOSTRIN might influence M3R activation. in the absence of NOSTRIN, the function of the M3R in mammalian cells overexpressing the M3R was markedly impaired, resulting in abolition of the calcium response to the M3R agonist carbachol. In accordance, the activated eNOS fraction associated with the Golgi complex was markedly reduced in aorta explants from NOSTRIN knockout and ECKO mice. Moreover, NOSTRIN knockout inhibited the carbachol-induced, activating phosphorylation of eNOS in murine aortae as well as primary mouse lung endothelial cells confirming its role as important regulator of eNOS activity in vivo.
Mit dem Stichwort "Materialanalyse" tritt ins Blickfeld, was Walter Benjamin als ein "zentrales Problem des historischen Materialismus" bezeichnet hat: "auf welchem Wege es möglich ist, gesteigerte Anschaulichkeit mit der Durchführung der marxistischen Methode zu verbinden". Die Frage betrifft die Beziehungen von Philologie, geschichtlicher Erfahrung und materialistischer Dialektik im Zusammenhang einer Geschichtsschreibung, der es nicht, wie der konservativen Hermeneutik, um das "Einrücken in ein Überlieferungsgeschehen" geht, sondern darum, das "Kontinuum der Geschichte aufzusprengen. Dass die marxistische Methode auf jene 'Beschaulichkeit' verzichten muss, die 'für' Benjamin das Verfahren des Historismus kennzeichnet, gründet in der von Friedrich Engels ausgegebenen Maxime, wonach die dialektische Darstellung den "Schein einer selbständigen Geschichte [...] der ideologischen Vorstellungen " aufzulösen habe, indem sie den "vom Denken unabhängigen Ursprung" zu ihrem Ausgangspunkt macht. Für Benjamin ist ihr Prinzip kein 'episches', sondern das der Montage. Sie ermöglicht, "die großen Konstruktionen aus kleinsten, scharf und schneidend konfektionierten Baugliedern zu errichten", um "durch Analyse des kleinen Einzelmoments" den "Kristall des Totalgeschehens" sichtbar werden zu lassen. Das Verfahren, das auch im apokryphen Materialgesellschaftliche Einsichten zu gewinnen sucht, verlangt nach einer aktiven Lektüre, die weniger 'auslegt' als 'übersetzt' und also den Text nicht unverändert lässt. Die Materialanalyse geht nicht aus von einem abstrakten Allgemeinbegriff, unter dem die Einzeldinge zum 'Spezialfall' herabsinken. Sie verlangt vielmehr, wie Theodor W. Adorno von der Dialektik fordert, die "Einlösung des Anspruchs der besonderen spezifischen Erkenntnis auf ihre Allgemeinheit". Ihren Namen, der in Studienprojekten des Argument-Verlags Ende der 1970er Jahre programmatisch wird, rechtfertigt die Materialanalyse da, wo das geschichtliche Material und eine am Begriff des Gegenstands selbst gebildete Reflexion sich zusammenschließen. Gefordert ist daher eine philosophische Arbeit, wie sie in marxistischer Tradition vor allem von Walter Benjamin und Antonio Gramsci ins Werk gesetzt worden ist. Die Materialanalyse setzt kein 'System' oder einen 'Entwurf' voraus, sondern schöpft aus der Kritik und dem Kommentar von Texten, prototypisch durchgeführt in der marxschen Kritik der politischen Ökonomie. Sie verlangt eine Kunst des Zitierens, wie sie sich im 'Passagen-Werk' von Benjamin ähnlich wie in den 'Gefängnisheften' Gramscis vorgebildet findet. Ihre Verfasser "haben vorgemacht, wie aus Zitaten ein Text aufgebaut werden kann, der den Ursprungstexten nie in den Sinn gekommen wäre". Das Feststellen der "Einzeltatsachen in ihrer unverwechselbaren 'Individualität'" gilt dabei als eine unhintergehbare Voraussetzung 'für die Schaffung einer' "lebendigen Philologie", die ihr Material analytisch zu durchdringen versteht.
In den Jahren um 1900 explodiert in Deutschland die sprachwissenschaftliche und sprachtheoretische 'Szene'. Alles, was in den nationalphilologischen Synthesen des 19. Jahrhunderts keinen Platz finden konnte, drängt spätestens jetzt zurück in das Licht der akademischen Öffentlichkeit. Nicht oder kaum akademisierte Unterströmungen wie die Sprachpsychologie, die Schulgrammatik, die Semantik, die Semiotik machen von sich reden. Bei weitem nicht alles wirkt dann tatsächlich auf die akademische Sprachwissenschaft. Diese sprachwissenschaftliche 'Überfülle' ist erst gebändigt worden in der Rezeption des kanonischen 'Cours de linguistique générale' Saussures, die einigermaßen erfolgreich den "eigentlichen" Gegenstand der Sprachwissenschaft als 'langue', als synchronisch zu fassendes einzelsprachliches Zeichensystem, zu fixieren suchte. All das ist historiographisch gut erforscht. Su gut wie überhaupt nicht im Blick der Historiographen ist hingegen die ebenfalls um 1900 erstmals erscheinende sprachwissenschaftliche Problemlinie, die später zu einer ebenfalls wirkmächtigen soziologisch-kommunikativen Sprachauffassung hinführt. Gute und gründliche Arbeiten gibt es zwar zur Vor- und Frühgeschichte der "Pragmatik", aber kaum untersucht ist die Vorgeschichte dessen, was heute entweder politische Begriffsgeschichte, Diskursanalyse oder Politolinguistik heißt. Das hängt gewiss damit zusammen, dass in Diskursanalyse und Begriffsgeschichte keineswegs nur (noch nicht einmal hauptsächlich) sprachwissenschaftliche Traditionen zusammenlaufen, sondern eben auch soziologische, politologische, philosophische. Ein bloßer Vortrag, versteht sich, kann diese Lücke nicht füllen. Ich will gleichwohl versuchen, wenigstens einen Strang aus dem einschlägigen problemgeschichtlichen Bündel zu ziehen - und der beginnt mit Karl Otto Erdmann.
Die stetig wachsende Menge an digital verfügbarem, zeitgenössischem wie historischem Textmaterial bietet für die begriffsgeschichtliche Forschung Chancen und Herausforderungen: Während die fortschreitende Digitalisierung die Verfügbarkeit erforschbaren Materials deutlich erhöht, resultiert aus der verbesserten Auffindbarkeit potentieller Quellen eine schwindende Übersicht dessen, was für begriffsgeschichtliche Studien überhaupt in Betracht zu ziehen ist. Am Beispiel der Begriffe Netz, Netzwerk und Vernetzung erproben wir quantitative, semi-automatische Ansätze für eine digitale Begriffsgeschichte. Dafür identifizieren wir zunächst die Beschränkungen des Tools Google Ngrams, das weder für die Analyse von Wortbedeutungen noch für die Bestimmung der Kontexte von Wortverwendungen geeignet ist. Demgegenüber erörtern wir die Vorzüge einer hier erstmals im Kontext begriffsgeschichtlicher Forschung vorgestellten Methode der vorwissensfreien Bedeutungsinduktion, die semantische Aspekte gesuchter Begriffsworte automatisch ermittelt, deren typische und untypische Verwendungskontexte aggregiert, Wortfelder kartiert und durch einen geeigneten Index die Möglichkeit bietet, Belegstellen zu betrachten sowie die Veränderung von Wortbedeutungen im Laufe eines gegebenen Zeitraums zu analysieren. Mittels dieser interaktiven, semi-automatischen Methode lässt sich für den deutschen Sprachraum nachweisen, dass sich zu Beginn des 21. Jahrhunderts ein Problemdiskurs über Netzwerke entwickelt, mit dem sich ein Wandel der Semantik des Begriffswortes erklären lässt. Mit dem vorgestellten Verfahren lässt sich auch die Bedeutung komplexer metaphorischer Prozesse für den zu erklärenden Begriffswandel erschließen.
Semantische Kämpfe gehören zum Alltag, die Gegenwart ist geradezu erfüllt von ihnen, denn "Herrschaft und Macht werden auch über Semantik ausgeübt". Man möchte deshalb meinen, dass sie einfach zum Sprachgebrauch gehören und seit jeher unsere verbalen Auseinandersetzungen begleiten. Ob das richtig ist, kann und soll hier gar nicht untersucht werden, Historiker sind dafür eher ungeeignet. Seit wann sie aber in unser Bewusstsein getreten sind und weshalb, ist eine Frage, zu der die Begriffsgeschichte durchaus etwas beizutragen hat. Es verdient darum Interesse, den weit über Deutschland hinaus bekannten Historiker der Ideen und Begriffe, den 2006 verstorbenen Reinhart Koselleck, auf seinem Weg vom hochgradig ideologisierten Konzept semantischer Kämpfe zur radikal historisierten Begriffsgeschichte zu begleiten, weil einige seiner dabei gemachten Einsichten ganz allgemein zu verstehen helfen, wie in Europa sprachlich die Moderne entstand und welchen Verlauf sie genommen hat.
Rahel Jaeggi und Tilo Wesche erstellen im Sammelband 'Was ist Kritik?' eine präzise Kartographie der historischen Hauptbedeutungen dieses Begriffes, wobei sie vier Formen unterscheiden: 1) Aufklärung oder Zeitalter der Kritik, 2) historische Kritik, 3) emanzipatorische Kritik oder intellektuelle Tugend und 4) philosophische Kritik. Alle vier Formen sind mit eigenen Nuancen im Werk von Reinhart Koselleck zu finden, der, wie bekannt, nicht im Bann der sogenannten Frankfurter Schule stand. Er hat sich mit der 'Aufklärung als Zeitalter der Kritik' auseinandergesetzt und sogar von der "Dialektik der Aufklärung" gesprochen, genauer gesagt von der Dialektik von Politik und Moral in der Neuzeit. In Form einer Metakritik bzw. einer "Aufklärung über die Aufklärung" unterzog er deren ideologische Pervertierung der Moral einer bissigen Kritik. Koselleck meinte, diese perfide Dialektik, die moralisierende Politik, sei nicht obsolet geworden, sondern sie habe zu den Weltanschauungskriegen des 20. Jahrhunderts geführt. Er kultivierte keine moralische Enthaltung oder Abstinenz, aber er war mit den Exzessen des Moralismus vertraut und misstraute ihnen deshalb.
'Die Zukunft kommt von selbst - der Fortschritt nur mit uns' war das Motto eines SPD-Parteitages im Jahr 1988 in Münster. Dieses Motto verrät nicht nur etwas darüber, wie der Begriff des Fortschritts interpretiert wurde (dass Fortschritt nämlich im Unterschied zur Zukunft nicht automatisch eintritt, sondern politisch 'gemacht' werden muss und dass er, im Gegensatz zur unbestimmten Zukunft, kommen 'soll'), sondern zeigt vor allem, dass gerade dieser Begriff und der mit ihm verbundene politische Gestaltungsanspruch als wesentliches Distinktionsmerkmal zum politischen Gegner herausgestellt wurde. Die Beschlüsse, die 2016 auf dem Parteikonvent der SPD gefasst wurden, standen unter dem Motto 'Fortschritt und Gerechtigkeit'. Dieses Begriffspaar, so erklärte der Bundesvorsitzende Sigmar Gabriel, sei die "Seele der Partei". Die Selbstbeschreibung als Partei des Fortschritts vereinfacht aber die Sache. Wie gezeigt werden soll, hat die Rede über Fortschritt in der Sozialdemokratie eine wechselvolle und ambivalente Geschichte, angesichts derer der heutige, recht ungebrochene Bezug auf das Schlagwort Fortschritt doch ein wenig überrascht. Der Geschichte des Fortschrittsbegriffs in der deutschen Sozialdemokratie soll im Folgenden in einigen wichtigen Momenten durch eine Untersuchung der Programmtexte nachgegangen werden. Dazu wurde auch auf die Methoden der digitalen Korpusanalyse zurückgegriffen. Der Schwerpunkt liegt in diesem Beitrag auf der Herausbildung und der Erosion der 'klassischen' Prägung des Fortschrittsbegriffs in der SPD in der Bundesrepublik. Er wurde nach der Neuausrichtung der SPD beim Parteitag in Bad Godesberg 1959 in besonderer Weise mit benachbarten Kategorien gekoppelt und hat so die grundlegende politische Zielsetzung und das Selbstbild der Partei nachhaltig geprägt.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
"Wellenformen" : die Leistung mathematischer Modellbildung für Akustik, Physiologie und Musiktheorie
(2016)
Im Jahr 1857 hält Hermann von Helmholtz einen Vortrag 'Ueber die physiologischen Ursachen der musikalischen Harmonien', in dem er erstmals Ergebnisse seiner akustischen und hörphysiologischen Forschungen einer akademischen Öffentlichkeit vorstellt. Dabei bilden die Untersuchungen und Experimente, die Helmholtz im Rahmen seiner Tätigkeit als Professor für Anatomie und Physiologie an der Universität Bonn durchgeführt hat, Grundlage und Ausgangspunkt einer umfassenden Neukonstitution von Wissenszusammenhängen, in deren Zuge ältere Wissensbestände arrondiert, im Lichte neuer Erkenntnisse bewertet, erweitert, neu gefasst und in ausgearbeiteter Form sechs Jahre später unter dem Titel 'Die Lehre von den Tonempfindungen' veröffentlicht werden. In den einleitenden Worten seines Vortrages aus dem Jahr 1857 verweist Helmholtz in diesem Kontext auf einen Aspekt, der ihm offenkundig von großer Signifikanz zu sein scheint:
"Es hat mich immer als ein wunderbares und besonders interessantes Geheimnis angezogen, dass gerade in der Lehre von den Tönen, in den physikalischen und technischen Fundamenten der Musik, die unter allen Künsten in ihrer Wirkung auf das Gemüth als die stoffloseste, flüchtigste und zarteste Urheberin unberechenbarer und unbeschreiblicher Stimmungen erscheint, die Wissenschaft des reinsten und consequentesten Denkens, die Mathematik, sich so fruchtbar erwies."
Bemerkenswert an dieser Aussage ist nicht, dass Musik und Mathematik in eine enge Beziehung zueinander gesetzt werden - hier kann Helmholtz auf eine über zweitausendjährige Tradition der wechselseitigen Elaboration beider Bereiche verweisen -, sondern dass Darlegungen, die auf die systematische Durchdringung der Zusammenhänge zwischen akustischen, physiologischen, psychischen, musiktheoretischen und ästhetischen Phänomenbereichen zielen, ihren Ausgangspunkt in der Mathematik nehmen. Diesen Leistungen, die mathematisches Denken für die Untersuchung und Explikation dieser Zusammenhänge erbringt, möchte der folgende Beitrag nachgehen. Es wird sich zeigen, dass eine spezifische mathematische Operation für das Verständnis von akustischen und physiologischen Prozessen modellbildend wirkt und über verschiedene Applikationswege hinweg neue Impulse der Systematisierung von Wissensbeständen setzt.
Klima wird in der industriellen Moderne zum Problem des Wissens. Anders als das Wetter ist das Klima der direkten Wahrnehmung entzogen; ein Umstand, der paradoxerweise immer problematischer zu werden scheint, je mehr Wissen über die komplexen Zusammenhänge von lokalen Wetterereignissen und globalem Klima existiert. Das moderne Klima ist ein wandelbares, globales Phänomen, dessen Erkenntnis doppelt vermittelt ist, insofern es weder sinnlich erfahrbar noch verstandesmäßig erfassbar und somit auf Modellierung angewiesen ist. Diese findet jedoch nicht allein im wissenschaftlichen Kontext statt. Vielmehr ist die Herstellung von Klima als Bedingung von (Lebens-)Wirklichkeit und Zukunft trotz ihres unterschiedlichen epistemischen Status das Ergebnis wechselseitiger Einflussnahme wissenschaftlicher und nicht-wissenschaftlicher Modelle.
Das Ziel dieser Arbeit ist die Entwicklung von neuen, experimentellen Ansätzen zur Thematisierung von Siliciumverbindungen im Chemieunterricht, die einen deutlichen lebensweltlichen Bezug aufweisen und moderne Entwicklungen berücksichtigen.
Die Bandbreite der Siliciumverbindungen reicht von den Silicaten im Bereich der Anorganik über elementares Silicium bis hin zu den polymeren Siliconen im Grenzbereich zu der Organik. Diese
große Vielfalt an Verbindungen hat eine Vielzahl von Anwendungen in tagtäglichen Produkten zur Folge. Dies sind einerseits relativ bekannte anorganische Baustoffe, wie Zement oder Sand, die schon seit der Antike von der Menschheit genutzt werden. Andererseits werden kontinuierlich neue Anwendungsmöglichkeiten in Alltag und Industrie für Siliciumverbindungen entwickelt, die in der modernen Lebenswelt der SchülerInnen einen festen Platz haben.
Oft ist das Vorhandensein der Siliciumverbindung gar nicht auf den ersten Blick erkennbar, obwohl sie die Eigenschaften eines Alltagsprodukts maßgeblich beeinflussen kann. Dies ist beispielsweise bei Silica-Verbindungen in der Zahncreme der Fall.
Im Chemieunterricht werden, wenn überhaupt, die „traditionellen“ Verwendungszwecke, wie in der Baustoffchemie, thematisiert, weniger dagegen die Funktion von Siliciumverbindungen in innovativen Produkten neueren Datums. Nur zögerlich werden Ansätze zur Thematisierung von Verbindungen, wie Siliconen, im Chemieunterricht etabliert.
Im Rahmen dieser Forschungsarbeit wurden daher auf der Grundlage einer fachdidaktischen Analyse und Diskussion Experimente zu ausgewählten Siliciumverbindungen entwickelt. Dies sind die Silicone, die Silica-Verbindungen und elementares Silicium. Die Experimente lassen sich größtenteils in der Sekundarstufe II in Anlehnung an verbindlich im Lehrplan thematisierte Inhalte in den Unterricht einbinden. Einige Experimente können nach einer angemessenen didaktischen Reduktion auch bereits in der Sekundarstufe I eingesetzt werden.
Die im Rahmen dieser Arbeit entwickelten Experimente wurden von LehrerInnen und SchülerInnen gleichermaßen erprobt. Es wurden Rückmeldungen zur Versuchen und Versuchsvorschriften eingeholt. Die Ergebnisse der Auswertung wurden zur Optimierung herangezogen.
In this paper we propose a way forward towards increased financial resilience in times of growing disagreement concerning open borders, free trade and global regulatory standards. In light of these concerns, financial resilience remains a highly valued policy objective. We wish to contribute by suggesting an agenda of concrete, do-able steps supporting an enhanced level of resilience, combined with a deeper understanding of its relevance in the public domain.
First, remove inconsistencies across regulatory rules and territorial regimes, and ensure their credibility concerning implementation. Second, discourage the use of financial regulatory standards as means of international competition. Third, give more weight to pedagogically explaining the established regulatory standards in public, to strengthen their societal backing.
Die vorliegende Arbeit beschäftigt sich mit der vergleichenden funktionalen Charakterisierung der E.coli Transporter LacY, FucP und XylE und des Glucose-Transporters GlcP aus Staphylococcus epidermidis sowie funktionsrelevanter Mutanten. Sie katalysieren in vivo den PMF-gekoppelten Zuckertransport und repräsentieren die major facilitator superfamily (MFS), einer der größten Transporter-Familien überhaupt. Die Studien wurden mithilfe einer elektrophysiologischen Methode auf Basis Festkörper-unterstützter Membranen (SSM) durchgeführt. Komplementär dazu wurden radioaktive Transportassays, fluorometrische Messungen, kinetische Simulationen und theoretische Berechnungen auf Basis der 3D-Strukturen durchgeführt. Experimentell bestimmte Zucker- und pH-Abhängigkeiten elektrogener steady-state und pre steady-state Reaktionen wurden verwendet, um ein allgemeingültiges kinetisches Modell aufzustellen.
Insgesamt konnten bei allen Transportern zwei elementare elektrogene Reaktionen identifiziert werden. Eine schnelle Zucker-induzierte Konformationsänderung wurde dem induced fit des Zuckermoleküls zugeordnet. Die Elektrogenität im steady-state wird dagegen durch den langsamen Transfer der negativ geladenen Protonenbindestelle bestimmt. Die für den Symport ratenlimitierende Reaktion ist abhängig von den äußeren Bedingungen wie pH-Werten, Zuckerkonzentrationen, Substrat-Spezies und Membranpotential meist die Konformationsänderung des leeren (P) oder des beladenen (PSH) Carriers, welche die Substratbindestellen im Zuge des Alternating Access über die Membran transferieren. Ein Wechsel zwischen hohen Protonenbindungs-pK-Werten und niedrigen Protonenfreisetzungs-pK-Werten durch weitere lokale Konformationsänderungen ist zentraler Bestandteil des Transportmechanismus. Ein weiterer wichtiger Aspekt ist die Kopplung zwischen Zucker- und Protonen-Translokation, die sich zwischen E.coli Transportern und GlcP strikt unterscheidet. In E.coli Transportern erfolgt eine kooperative Bindung von Zucker und Proton. Zudem erfolgt keine Konformationsänderung im Zucker-gebundenen, unprotonierten Carrier (PS). In GlcP ist die Kopplung erheblich reduziert. Der Transport-Modus selbst ist abhängig von den äußeren Bedingungen. So katalysiert GlcP abhängig vom pH-Gradienten Uniport, Symport oder Antiport.
Die vorliegende Arbeit leistet einen wichtigen Beitrag zum Verständnis des PMF-gekoppelten Zuckertransports und zeigt die Grenzen des für LacY formulierten 6-Zustands-Modells mit nur zwei Konformationsänderungen auf. Ein erweitertes 8-Zustands-Modell mit vier Konformationsänderungen, die unterschiedliche Ratenkonstanten aufweisen können, erklärt sowohl Symport, Antiport als auch Uniport und berücksichtigt zudem die zahlreichen Ergebnisse für LacY aus der Literatur.
Die Berichterstattung über den Nahostkonflikt gehört seit Jahrzehnten zum Standardrepertoire der Nachrichten. Hierzulande hat fast jeder eine Meinung zum israelisch-arabischen Konflikt, doch wenige verstehen, um was es den Konfliktparteien eigentlich geht, was in bisherigen Verhandlungen erreicht worden ist und wo genau die Hürden für eine Konfliktregelung liegen. Dieses Buch liefert eine kompakte und zugleich anschauliche und detaillierte Analyse des Konflikts zwischen Israel und seinen arabischen Nachbarn. Dabei stehen die lokalen und regionalen Akteure im Mittelpunkt. Um die Konfliktdynamiken zu erklären, geht das Buch vor allem auf die konkurrierenden Interessen und Narrative der Konfliktparteien sowie ihre Wechselwirkungen ein.
Der vorliegende Aufsatz befasst sich mit temporalen Uneindeutigkeiten ökonomischer Modellierungen, die einem Ansatz zugerechnet werden, der in der Wissenschaftsgeschichte der Ökonomik als 'Neoklassik' thematisiert wird und seit den 1870er Jahren vorgebracht wurde. Die Neoklassik hat sich als enorm einflussreich in der Wirtschaftswissenschaft erwiesen; sie liegt beispielsweise der seit der zweiten Hälfte des 20. Jahrhunderts zunehmende Eigenständigkeit erlangenden Finanztheorie ('Finance') zugrunde und informierte auch die in den 1970er Jahren erstarkende Bewegung, makroökonomische Modellierungen auf Tauschvorgänge zurückzuführen, die sich auf der Mikroebene, d. h. zwischen einzelnen ökonomischen Akteuren (Arbeitern, Firmen, Haushalten etc.) abspielen.
Zu den nachhaltigsten Prägungen des architektonischen Entwerfens gehört das vereinfachte Idealszenario, wonach der Prozess der Theorie- und Formbildung eine Kette von Modellierungsstufen sei, die vom Großen zum Kleinen, vom städtebaulichen Entwurf zur baukonstruktiven Detailplanung führen. Nach diesem Szenario steht am Anfang jeder Modellierungsphase eine architektonische Hypothese mit ihrem je spezifischen Gegenstandsversprechen. Als letzte Modellierungsstufe am Ende der Kette liegt das konkrete Bauwerk im Eins-zu-eins-Maßstab vor. Jede Stufe wird in maßstabsgetreuen Zeichnungen und Modellen entwickelt, die ihre Qualität aus der Entsprechung zum späteren Bauwerk gewinnen. In jeder Phase hat der Architekt die Möglichkeit, das bisher Modellierte durch Anschauung zu überprüfen, weiter auszuarbeiten oder zu verwerfen. Auf diese Weise wird der Entwurf von einer Stufe auf die nächste überführt. Das computerbasierte Modellieren scheint diese Idealkette entwurflicher Operationen zu unterbrechen. Unter Zuhilfenahme von 3D-Modellierungssoftware entwickelt der Architekt seinen Entwurf weniger in aufeinander aufbauenden Stufen als vielmehr in einer einzigen Stufe, die theoretisch alle anderen Stufen beinhaltet. Die erdachte Architektur wird nicht in abstrahierenden, voneinander getrennten Zeichnungen dargestellt, sondern in einem einzigen, zweidimensional wiedergegebenen 3D-Modell visualisiert. Digitale Prozessketten heben die tradierte Trennung zwischen intellektuellem Entwurfsakt und materieller Ausführung auf. Während im Analogen die architektonischen Entwurfszeichnungen zunächst in Ausführungspläne und anschließend von den am Bau beteiligten Gewerken in Werkstattpläne transformiert werden, sind im Digitalen Entwurf und Ausführung eng miteinander verschränkt. Die Produktionstechnologien greifen unmittelbar in die Entwurfsverfahren ein: Bei dem 'file to factory' genannten Modellierungsverfahren werden geometrische und technologische Informationen in einem Datenmodell zusammengefasst, das unter Zuhilfenahme computergesteuerter Fertigungsmaschinen (u. a. 3D-Drucker) in ein physisches Modell oder ein Bauteil umgesetzt wird.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.
Das Ziel des Beitrags besteht darin, jene Formelideale in der Mathematik und in der Ökonomik zu identifizieren, um anschließend Überlegungen darüber anzustellen, auf welche Art und Weise diese Ideale den logischen Spielraum der Problemlösung erweitern oder einengen. Ganz entscheidend hierfür ist das Verhältnis von Internalitäten und Externalitäten; also ob bzw. welche Umweltbezüge in der Formelsprache eingeschlossen oder ausgeschlossen werden. Die Analyse erfolgt aus wissenssoziologischer Perspektive, die die mathematische, mit Blick auf die Ökonomik vorsichtiger formuliert: die pseudo-mathematische Formelsprache als eine spezifische Semantik versteht. Hierbei handelt es sich nicht nur um eine Semantik, die sich der durch die gesellschaftliche Differenzierung ausgelösten Komplexitätssteigerung anpasst. Die Evolution der mathematischen und wirtschaftswissenschaftlichen Semantik befolgt zudem, so meine These, paradigmatische Ideale, die in den spezifischen Disziplinen angelegt sind. Dies spiegelt sich in der Art und Weise wider, wie in den jeweiligen Disziplinen auf mathematisch-kalkulatorischer Modellebene einerseits eine Geschlossenheit und Binnenreferenzialität des Formelhorizonts und andererseits eine Projektionsfläche für die Entdeckung von Zusammenhängen und das Auffinden formaler Muster generiert wird. Die Ausgangsannahme im Hinblick auf die Ökonomik ist, dass auch die Operationsweise ökonomischer Modelle, insofern sie auf mathematischer Grundlage gebildet werden, auf einer Binnenreferenzialität beruht. Die Stringenz solcher Modellierungen wird gerade deswegen zum vorherrschenden Gütekriterium, weil sie nicht nur jegliche Externalitäten im Sinne einer Irritation des formalen Modells ausschließt, sondern zugleich Beobachtungseffekte durch Sinnüberschüsse ermöglicht, die durch eine Entdeckung formaler Muster aktualisiert werden. Im ersten Schritt wird hierzu das Formelideal der reinen Mathematik auf der Grundlage wissenssoziologischer Überlegungen und mathematischer Selbstreflexionen herausgearbeitet. Daran anschließend wird das Formelideal pseudo-mathematischer Modelle in der Ökonomik untersucht. Die Basis bilden vor allem William Stanley Jevons' und Alfred Marshalls wegweisende Überlegungen zur Mathematisierung der Ökonomik. Die Beobachtungen werden abschließend auf den Aspekt des Erweiterns oder Einengens des logischen Spielraums zur Problemlösung in der Mathematik und der Ökonomik hin zugespitzt.
Die naturwissenschaftlichen Diskurse des 19. Jahrhunderts sprachen neben den 'Bildern' von einer ganzen Reihe weiterer Dinge, welche Wissensgegenstände repräsentieren konnten, auch ohne Modelle im damaligen Sinn zu sein. Weite Verbreitung fanden im 19. Jahrhundert in dieser Funktion insbesondere die Begriffe der 'Analogien', 'Interpretationen' und der 'Systeme' von wirklichen oder gedachten Dingen. Die Beispiele, die mit solchen Begriffen verbunden waren, sind häufig für die Wissenschaftsentwicklung von substanzieller Bedeutung gewesen. Sie stehen aber, wie ich im Folgenden andeuten möchte, für ganz unterschiedliche Formen und Funktionen der abstrakten Repräsentation. Den Begriff 'abstrakte Repräsentation' verwende ich hierbei etwas vage und naiv als schlichten Oberbegriff für verschiedene Weisen, einen Komplex von wissenschaftlich interessierenden Dingen oder Sachverhalten durch etwas anderes darzustellen und für die wissenschaftliche Praxis zu thematisieren, ohne dabei auf materielle, anfassbare Dinge zurückzugreifen, wie dies die 'Modelle' in der Sprache des 19. Jahrhunderts taten. Zugleich soll dadurch ('pace' Wittgenstein und unangesehen der inflationären Verwendung des Modellbegriffs seit Mitte des 20. Jahrhunderts) vermieden werden, vorschnell von einem 'Denken in Modellen' zu reden. Wir werden noch sehen, dass die in Rede stehenden, abstrakten Repräsentationen bisweilen sehr konkrete epistemische Funktionen hatten. Das Wort 'abstrakt' sollte hier also nicht überbewertet werden. Insbesondere möchte ich im Folgenden jeweils die spezifische 'epistemische Situation' charakterisieren, d.h. die Besonderheiten der Wissensumstände, in welchen der Rückgriff auf eine Form der abstrakten Repräsentation geschah und den Beteiligten vielversprechend erschien.
Es ist ein Gegenstand andauernder Diskussionen, wie der Strukturalismus, der im Werk von Claude Lévi-Strauss vielleicht seine aufregendste und theoretisch ambitionierteste Ausprägung gefunden hat, sich zum Modell verhält. Während Marcel Hénaff betont hat, dass der Strukturalismus von Lévi-Strauss ohne eine Klärung des Modell-Begriffs kaum verstanden werden könne, hat Robert Matthias Erdbeer am Beispiel des französischen Ethnologen zuletzt das Fehlen einer strukturalistischen Modelltheorie beklagt: "Man kann hier einen echten Theorieverlust, ja Theorieverzicht beklagen, wenn man konstatiert, dass am Beginn der strukturalen Theoriebildung nicht die Strukturen stehen, sondern das Modell. Modelle, so die überraschende Erkenntnis, sind das epistemische Arkanum, das verdeckte Andere des strukturalen Theoriedesigns." Aus der Perspektive der Modelltheorie literarischer Texte, die Erdbeer in hoch anregender Weise ausgearbeitet hat, ist diese Diagnose nachvollziehbar. Jedoch sollte sie nicht in den Hintergrund geraten lassen, dass der Modell-Begriff von Lévi-Strauss, so ungenügend er sich zur Lösung aktueller theoretischer Fragestellungen erweisen mag, aus historischer Sicht überaus aufschlussreich ist, ja dass er gerade auch in seinen Unschärfen, Schwierigkeiten und Dunkelheiten Auskunft darüber gibt, wie sich die strukturale Analyse im wissenschaftlichen Feld ihrer Zeit positioniert und an welche wissenschaftlichen Traditionen sie anschließt. In den folgenden Ausführungen wird der Modell-Begriff bei Lévi-Strauss deshalb noch einmal in den Blick genommen. Im Anschluss an Hénaff soll dabei vor allem an zwei Diskussionsfeldern gezeigt werden, dass die Auseinandersetzung mit Modellen insofern ins Herz der strukturalen Analyse führt, als Lévi-Strauss Modelle sowohl von der Struktur als auch von den konkreten Ereignissen her denkt und sie immer wieder als Vermittler von Struktur und Ereignis positioniert. Hierfür wird zunächst rekonstruiert, wie Lévi-Strauss das Modell im Zusammenhang von Reflexionen zur Ethnologie und deren Rolle im Gefüge der Wissenschaften behandelt - in den Mittelpunkt werden dabei die Begriffe des 'mechanischen Modells' und des 'statistischen Modells' rücken. Danach wird betrachtet, wie er das Modell in das 'Das wilde Denken' ins Zentrum seiner ästhetischen Theorie stellt und die Kunst hier als 'verkleinertes Modell' konzipiert, bevor abschließend zumindest umrissen werden soll, in welche wissenschaftliche Tradition sich Lévi-Strauss mit seinen Erörterungen zu Modellen stellt.
In einem 2015 veröffentlichten Ranking des populären Wissenschaftsportals 'postnauka' wurde in der Rubrik "die fünf wichtigsten Bücher zur intellectual history" Reinhart Kosellecks Monographie 'Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten' vorgestellt. Der Autor Ivan Boldyrev bezeichnete den Band als eines der Grundlagenwerke der deutschen Begriffsgeschichte und hob auf die Leistungsfähigkeit der historischen Semantik ab. Dass ein deutschsprachiges Buch auf die Liste kam, stellt eine große Ausnahme dar. Deutsche Titel erscheinen in diesen Rankings ansonsten nur, wenn sie in russischer Übersetzung vorliegen. Eine intensive Rezeption der Begriffsgeschichte Reinhart Kosellecks und seiner Arbeiten zu Zeitstrukturen setzte bereits vor über zehn Jahren ein. 2004 beendete der Historiker Aleksandr Dmitriev einen Überblicksartikel zur 'Intellectual History' mit der Ankündigung, dass der Moskauer Verlag 'Novoe literaturnoe obozrenie' (Neue literarische Umschau) in seinen Zeitschriften und Büchern das Thema zunächst am Beispiel der Begriffsgeschichte Reinhart Kosellecks verfolgen werde. Bereits zwei Jahre später, 2006, konstatierte Nikolaj Koposov, der Gründungsdekan des 'Smolny College of Liberal Arts and Sciences' in Sankt Petersburg, über Begriffsgeschichte werde viel diskutiert, der Ansatz selbst aber von russischen Kollegen bzw. an russischem Material nur wenig praktiziert. Mittlerweile hat sich einiges in diesem Forschungsfeld getan. Es liegen erste Übersetzungen der theoretischen Arbeiten Kosellecks sowie neun Artikel aus den 'Geschichtlichen Grundbegriffen' in russischer Sprache vor. Auch die Zahl von empirischen und theoretischen Arbeiten zur russischen Begriffsgeschichte wächst. Die Rezeption der deutschen Begriffsgeschichte und der Arbeiten Reinhart Kosellecks erfolgt - so die einhellige Meinung von russischen Autoren - im Zuge der wissenschaftlichen Neuorientierung in postsowjetischer Zeit und der Suche nach Parametern für die Forschung. Damit verbunden indet eine Internationalisierung und Öffnung der Geisteswissenschaften nach außen statt, d.h. es erfolgt eine intensivere Rezeption internationaler Historiographien und eine verstärkte Kooperation mit ausländischen Kollegen. Spezifisch für dieses Forschungsfeld ist die gleichzeitige bzw. gemeinsame Rezeption der Begriffsgeschichte bei Historikern, Philosophen, Linguisten, Soziologen und Politologen. Im Folgenden sollen die wichtigsten Institutionen, Veranstaltungen, Kooperationen und Publikationen vorgestellt und die inhaltlichen Schwerpunkte und Spezifika der russischen Rezeption Kosellecksche Arbeiten aufgezeigt werden.
Im spanischsprachigen Raum wird immer noch oft zwischen philosophischer und historiographischer Begriffsgeschichte unterschieden. Allerdings führen beide Richtungen seit einigen Jahren einen fruchtbaren Dialog miteinander. Damit schließen sie in gewisser Weise an eine Forderung Reinhart Kosellecks an. Nach seiner Einschätzung kann die "Fortführung oder Revision der Begriffsgeschichte" von "deren philosophiegeschichtlichen Wurzeln und Varianten" nicht absehen. Die von Koselleck benannte Theoriebedürftigkeit der Geschichtswissenschaft, damals noch umstritten, ist zu einer Art Evidenz geworden. Daher kann ein kleiner Exkurs zur editorischen Wirkungsgeschichte Kosellecks in Spanien und Iberoamerika aufschlussreich sein.
The reception of Reinhart Koselleck's oeuvre in Scandinavia has not been unified. This differences are due in part to the different languages and the rather different academic cultures in the Nordic countries. While German is widely read and understood in Denmark, it is less popular in Finland, Norway, and Sweden. The need for translations and mediation through other languages differs from country to country, which makes a common Nordic reception hard to assess. Moreover, the scholars who have been instrumental in the reception and elaboration of Koselleck's thought have not typically worked within a single, delineated national space, making the notion of national receptions itself difficult to defend. This trouble with national and regional reception might even lead one to ask if the foundation of the History of Political and Social Concepts Group (known since 2012 as the History of Concepts Group) at the Finnish Institute in London in 1998 was a specifically Finnish endeavor or a Nordic one. Although the meeting was co-initiated by Kari Palonen and hosted by Henrik Stenius, the director of the Institute at the time, the group’s outlook was from the very beginning an international one. Similarly confounding are the conditions surrounding the only intellectual biography about Koselleck to date. It was written by the Danish scholar Niklas Olsen as his PhD thesis at the European University Institute and later published as a book by an American publishing house. In this respect, it can hardly be seen as a distinctly Danish or Scandinavian effort. Still, there has been a strong Scandinavian element within the international reception of Koselleck and 'Begriffsgeschichte'. As a result, scholars have produced translations of Koselleck's writings, publications inspired by his 'Geschichtliche Grundbegriffe', and theoretical projects that attempt to expand the limits of conceptual history. Institutionally, conceptual history has been very visible in the Nordic countries. The History of Concepts Group has held conferences in Copenhagen (2000), Tampere (2001), Uppsala (2006), and Helsinki (2012). The international summer school in conceptual history took place in Helsinki (2005–2012) and since then has convened in Aarhus and Copenhagen. By contrast, the irst conference in Germany did not take place until 2014 in Bielefeld.
Koselleck in Italien
(2015)
Das Werk Reinhart Kosellecks ist in Italien im Rahmen der Historiographie, der Theorie der Geschichte, der Philosophie und der Politikwissenschaft relativ bekannt. Im italienischen Sprachraum haben seine Theorie historischer Zeiten, seine begriffsgeschichtliche Methode und seine Historik eine weite Verbreitung erreicht. Etwas weniger bekannt sind seine Aufsätze zur politischen Ikonologie. Die Übersetzung der Schriften Kosellecks in die italienische Sprache begann erst in den 1970er Jahren. So wurde 1972 'Kritik und Krise', 1986 'Vergangene Zukunft', 1988 das Buch über Preußen, 1990 'Hermeneutik und Historik' und 1992 'Das Zeitalter europäischer Revolution 1780–1848' übersetzt. Die 'Studien zum Beginn der modernen Welt' erschienen im Jahre 1997 in einer italienischen Ausgabe. 2009 wurde eine Teilausgabe der 'Begriffsgeschichten' im Italienischen veröffentlicht. Außerdem sind mehrere Artikel Kosellecks aus den 'Geschichtlichen Grundbegriffen' (1991 'Fortschritt', 1993 'Demokratie', 2009 'Geschichte', 2012 'Krise') und einige Aufsätze ('Concepts of Historical Time and Social History' (1980), 'Das achtzehnte Jahrhundert als Beginn der Neuzeit' (1987), 'Die Transformation der politischen Totenmale im 20. Jahrhundert' (2002)) übersetzt worden. Koselleck wird in Italien meist als Begriffshistoriker wahrgenommen und ist für das italienische Publikum der wahrscheinlich bekannteste Vertreter der deutschen Begriffsgeschichte.
Folgt man einem Eintrag in einer der meistbenutzten Online-Enzyklopädien, dann gehört Reinhart Koselleck in Frankreich zu den bekanntesten deutschen Historikern des 20. Jahrhunderts. Eine vergleichsweise lange Liste von Übersetzungen und kritischen Beiträgen bekräftigt dieses Urteil und unterstreicht zugleich die spezifischen Interessengebiete, die für die französische Rezeption Kosellecks wichtig wurden. Sie reichen von der Sozial- und Begriffsgeschichte über die Geschichte von Recht und Gerechtigkeit bis zu Problemen der Erinnerungskultur und der Theorie der Geschichte. Vor allem in den letzten zwei Jahrzehnten des 20. Jahrhunderts erschien eine Reihe von Übersetzungen wesentlicher Beiträge Kosellecks zu diesen Themen ins Französische. Dass sich diese Periode mit einer Phase intensiver methodologischer und theoretischer Auseinandersetzungen unter französischen Historikern deckte, war für die Art und Weise, in der Kosellecks Arbeiten aufgenommen und diskutiert wurden, keineswegs unwichtig. Zeitweilig erwuchs daraus ein Dialog, der auf beiden Seiten des Rheins eine ganze Generation junger Historiker einschloss.
Purpose: A study of real-time adaptive radiotherapy systems was performed to test the hypothesis that, across delivery systems and institutions, the dosimetric accuracy is improved with adaptive treatments over non-adaptive radiotherapy in the presence of patient-measured tumor motion.
Methods and materials: Ten institutions with robotic(2), gimbaled(2), MLC(4) or couch tracking(2) used common materials including CT and structure sets, motion traces and planning protocols to create a lung and a prostate plan. For each motion trace, the plan was delivered twice to a moving dosimeter; with and without real-time adaptation. Each measurement was compared to a static measurement and the percentage of failed points for γ-tests recorded.
Results: For all lung traces all measurement sets show improved dose accuracy with a mean 2%/2 mm γ-fail rate of 1.6% with adaptation and 15.2% without adaptation (p < 0.001). For all prostate the mean 2%/2 mm γ-fail rate was 1.4% with adaptation and 17.3% without adaptation (p < 0.001). The difference between the four systems was small with an average 2%/2 mm γ-fail rate of <3% for all systems with adaptation for lung and prostate.
Conclusions: The investigated systems all accounted for realistic tumor motion accurately and performed to a similar high standard, with real-time adaptation significantly outperforming non-adaptive delivery methods.
Die besondere sprachliche und gesellschaftliche Situation in der Türkei bedingt, dass sich dort die Voraussetzungen für die Beschäftigung mit Begriffsgeschichte grundlegend von denen in anderen Ländern unterscheiden. In den Atatürk'schen Reformen seit den späten 1920er Jahren wurde auch die Sprache zum Ziel staatlicher Eingriffe: Der arabische und persische Wortschatz sowie Fremdwörter aus europäischen Sprachen sollten durch "genuin türkische" ('Öz Türkçe', etwa: 'das eigentliche, reine Türkisch') Wörter ersetzt werden, die entweder aus anderen Turksprachen entlehnt oder neu geschaffen werden sollten. Über Jahrzehnte hinweg wurde über Wörter und ihre Gestalt heftig gestritten, und die politische Gesinnung eines Menschen konnte lange Zeit auch an dem Wortschatz festgemacht werden, den er gebrauchte. Dies hatte und hat auch Konsequenzen für Begriffe und ihre Geschichte in der Türkei. So ist es im akademischen Diskurs der Türkei gängige Praxis, Begriffe aus den europäischen Sprachen ins Türkische zu übersetzen, wobei die türkischen Begriffe sowohl von den Autoren als auch von den Lesern als Übersetzungen der entsprechenden Begriffe in den Originalsprachen wahrgenommen werden. Kommen begriffsgeschichtliche Fragen ins Spiel, so interessiert man sich dann meist nicht für die Geschichte der türkischen Übersetzung, sondern für die des ursprünglichen Begriffs. Ein weiterer wichtiger Aspekt ist die Tatsache, dass "Klassiker" der sozialwissenschaftlichen und philosophischen deutsch-, englisch- und französischsprachigen Literatur relativ schnell auch ins Türkische übersetzt werden, wobei sich begriffliche Fragen gewissermaßen von selbst einstellen.
BACKGROUND: Polyclonal anti-thymocyte globulins (ATGs) are immunosuppressive drugs widely used in induction of immunosuppression and treatment of acute rejection after solid organ transplantation. We have previously demonstrated that ATGs bind to endothelial cells in vitro, and are able to modulate ECs. The aim of this study was to investigate the binding of ATGs to endothelial cells under in vivo conditions.
MATERIAL AND METHODS: Muscle biopsies from extremities of cynomolgus monkeys were obtained after ischemia/reperfusion at 4°C. ATGs (Thymoglobulin, Sanofi-Aventis, France; 1 mg/kg) were added to the blood 30 min prior to the reperfusion. Biopsies (n=10) of patients undergoing heart transplantation and preoperatively treated with ATGs (Thymoglobulin, Sanofi-Aventis, France; 1.5 mg/kg) as induction therapy were also analyzed 6 hours and 7 days after induction. Binding of ATGs to ECs was analyzed with an anti-rabbit IgG antibody by means of immunohistochemistry.
RESULTS: Binding of ATGs to endothelial cells could be demonstrated in vivo in our animal experiments 4 hours after reperfusion, as well as in the clinical biopsies 6 hours after induction of immunosuppression in heart transplant patients, showing a preferred localization in post-capillary veins. No expression of ATGs on the endothelial surface could be observed after 7 days, suggesting that ATGs may be washed out from the endothelial surface in a time-dependent manner.
CONCLUSIONS: Our results show that ATGs are able to bind to endothelial cells in an experimental model and in clinical practice, supporting preconditioning strategies with ATGs in solid organ transplantation.
Introduction: In the time of increasing resistance and paucity of new drug development there is a growing need for strategies to enhance rational use of antibiotics in German and Austrian hospitals. An evidence-based guideline on recommendations for implementation of antibiotic stewardship (ABS) programmes was developed by the German Society for Infectious Diseases in association with the following societies, associations and institutions: German Society of Hospital Pharmacists, German Society for Hygiene and Microbiology, Paul Ehrlich Society for Chemotherapy, The Austrian Association of Hospital Pharmacists, Austrian Society for Infectious Diseases and Tropical Medicine, Austrian Society for Antimicrobial Chemotherapy, Robert Koch Institute.
Materials and methods: A structured literature research was performed in the databases EMBASE, BIOSIS, MEDLINE and The Cochrane Library from January 2006 to November 2010 with an update to April 2012 (MEDLINE and The Cochrane Library). The grading of recommendations in relation to their evidence is according to the AWMF Guidance Manual and Rules for Guideline Development.
Conclusion: The guideline provides the grounds for rational use of antibiotics in hospital to counteract antimicrobial resistance and to improve the quality of care of patients with infections by maximising clinical outcomes while minimising toxicity. Requirements for a successful implementation of ABS programmes as well as core and supplemental ABS strategies are outlined. The German version of the guideline was published by the German Association of the Scientific Medical Societies (AWMF) in December 2013.
Background: Baker’s yeast, Saccharomyces cerevisiae, as one of the most often used workhorses in biotechnology has been developed into a huge family of application optimised strains in the last decades. Increasing numbers of strains render their characterisation highly challenging, even with the simple methods of growth-based analytics. Here we present a new sensor system for the automated, non-invasive and parallelisable monitoring of biomass in continuously shaken shake flask cultures, called CGQ (“cell growth quantifier”). The CGQ implements a dynamic approach of backscattered light measurement, allowing for efficient and accurate growth-based strain characterisation, as exemplarily demonstrated for the four most commonly used laboratory and industrial yeast strains, BY4741, W303-1A, CEN.PK2-1C and Ethanol Red.
Results: Growth experiments revealed distinct carbon source utilisation differences between the investigated S. cerevisiae strains. Phenomena such as diauxic shifts, morphological changes and oxygen limitations were clearly observable in the growth curves. A strictly monotonic non-linear correlation of OD600 and the CGQ’s backscattered light intensities was found, with strain-to-strain as well as growth-phase related differences. The CGQ measurements showed high resolution, sensitivity and smoothness even below an OD600 of 0.2 and were furthermore characterised by low background noise and signal drift in combination with high reproducibility.
Conclusions: With the CGQ, shake flask fermentations can be automatically monitored regarding biomass and growth rates with high resolution and parallelisation. This makes the CGQ a valuable tool for growth-based strain characterisation and development. The exceptionally high resolution allows for the identification of distinct metabolic differences and shifts as well as for morphologic changes. Applications that will benefit from that kind of automatized biomass monitoring include, amongst many others, the characterization of deregulated native or integrated heterologous pathways, the fast detection of co-fermentation as well as the realisation of rational and growth-data driven evolutionary engineering approaches.
Background: Histone lysine demethylases (KDMs) are of interest as drug targets due to their regulatory roles in chromatin organization and their tight associations with diseases including cancer and mental disorders. The first KDM inhibitors for KDM1 have entered clinical trials, and efforts are ongoing to develop potent, selective and cell-active ‘probe’ molecules for this target class. Robust cellular assays to assess the specific engagement of KDM inhibitors in cells as well as their cellular selectivity are a prerequisite for the development of high-quality inhibitors. Here we describe the use of a high-content cellular immunofluorescence assay as a method for demonstrating target engagement in cells.
Results: A panel of assays for the Jumonji C subfamily of KDMs was developed to encompass all major branches of the JmjC phylogenetic tree. These assays compare compound activity against wild-type KDM proteins to a catalytically inactive version of the KDM, in which residues involved in the active-site iron coordination are mutated to inactivate the enzyme activity. These mutants are critical for assessing the specific effect of KDM inhibitors and for revealing indirect effects on histone methylation status. The reported assays make use of ectopically expressed demethylases, and we demonstrate their use to profile several recently identified classes of KDM inhibitors and their structurally matched inactive controls. The generated data correlate well with assay results assessing endogenous KDM inhibition and confirm the selectivity observed in biochemical assays with isolated enzymes. We find that both cellular permeability and competition with 2-oxoglutarate affect the translation of biochemical activity to cellular inhibition.
Conclusions: High-content-based immunofluorescence assays have been established for eight KDM members of the 2-oxoglutarate-dependent oxygenases covering all major branches of the JmjC-KDM phylogenetic tree. The usage of both full-length, wild-type and catalytically inactive mutant ectopically expressed protein, as well as structure-matched inactive control compounds, allowed for detection of nonspecific effects causing changes in histone methylation as a result of compound toxicity. The developed assays offer a histone lysine demethylase family-wide tool for assessing KDM inhibitors for cell activity and on-target efficacy. In addition, the presented data may inform further studies to assess the cell-based activity of histone lysine methylation inhibitors.
Die Rezeption von Kosellecks Konzeption der Begriffsgeschichte in Polen begann Anfang der 1990er Jahre auf Umwegen und als Resultat von Zufällen. Die Tatsache, dass der polnische Philosoph Krzysztof Michalski (1948–2013), der Direktor des Wiener 'Instituts für die Wissenschaften vom Menschen', die Ergebnisse der vom ihm organisierten Castelgandolfo-Gespräche nicht nur im deutschen Original, sondern ab 1990 auch in Polen herausgab, führte dazu, dass auch drei Vorträge Kosellecks in polnischer Übersetzung erschienen. Da Koselleck in zweien seiner Vorträge mit 'Krise' und 'Emanzipation' die Geschichte von Begriffen behandelte, die er auch in den 'Geschichtlichen Grundbegriffen' (GG) erörtert hatte, gelangten auf dem Umweg der Castelgandolfo-Sammelbände erstmals Texte Kosellecks zur Begriffsgeschichte in den akademischen Diskurs in Polen. Auch in seinem dritten Castelgandolfo-Vortrag, in dem es um die Möglichkeit eines auf der historischen Semantik basierenden Vergleichs bürgerlicher Gesellschaften ging, hatte Koselleck weiterreichende Konsequenzen der Begriffsgeschichte behandelt. In den 1990er Jahren selbst erfuhren die genannten Texte in Polen allerdings noch kaum Beachtung. Dies sollte sich erst 2001 ändern, als der Germanist Hubert Orłowski in der von ihm verantworteten 'Posener Deutschen Bibliothek' (Poznańska Biblioteka Niemiecka) einen Sammelband mit vom ihm ausgewählten Aufsätzen Kosellecks zur historischen Semantik herausgab, der im Wesentlichen auf dessen Band 'Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten' (1979) basierte, allerdings um die Einleitung zu den GG und weitere Texte ergänzt worden war.
Die offensichtlichen Ähnlichkeiten zwischen Neurasthenie und Burnout dürfen den wissenschaftlichen Blick jedoch nicht dazu verleiten, vorschnell von einer substantiellen Identität auszugehen. Es ist keineswegs gleichgültig, unter welchem Namen ein Leiden amtiert. Vielmehr gehe ich davon aus, dass die Etablierung eines neuen Begriffs ein Ereignis ist, das genauer in den Blick genommen zu werden verdient, weil es auf eine veränderte Problemlage hinweist. Die Frage lautet also, wie genau sich das Verhältnis zwischen Neurasthenie und Burnout darstellt, was diese beiden Begriffe trennt und verbindet, welche semantischen Bedeutungsebenen sich in ihnen jeweils abgelagert haben und welche Rückschlüsse sich aus der Untersuchung dieser Bedeutungsschichten für das Verständnis unserer Gegenwart möglicherweise ziehen lassen. Der erste Schritt einer solchen Fragestellung muss immer darin bestehen, die Phänomene gegeneinander zu legen und sie auf ihre Gemeinsamkeiten und Unterschiede hin zu untersuchen, um auf dieser Grundlage eine schärfere Kontur ihrer Besonderheiten zu erlangen - was im Folgenden geschehen soll.
Das Thema der Entstehung der modernen Welt steht im Zentrum des Interesses Reinhart Kosellecks, sowohl in Bezug auf die historische Semantik der politischen Begriffe, als auch bezüglich der sozialen Veränderungen der gesellschaftlichen Strukturen. Kosellecks Begriffsgeschichte geht es darum, den "Umwandlungsprozess zur Moderne" zu zeigen, wie er sich in der Verwendung der politischen Sprache ereignet. Mit der Theorie historischer Zeiten entwickelt Koselleck eine eigene Theorie der Entstehung der Neuzeit, die die Absicht hat, die spezifischen und charakteristischen Merkmale der modernen Welt und ihrer Zeitlichkeit durch die Darstellung der Beziehung zwischen den Erfahrungsräumen und den Erwartungen zu beschreiben. In seiner Doktorarbeit hat Koselleck die Diagnose über den Beginn der modernen Welt auf die Beziehung zwischen aufklärerischer Kritik und politischer Krise zurückgeführt; 1959 wurde die Doktorarbeit verbessert und veröffentlicht. Nun wird die Genese der modernen Welt zur "Pathogenese der bürgerlichen Welt", also vor allem im Sinne einer Krankheit verstanden: die Krise der Moderne entspricht also einer Pathologie. Der Horizont des strukturellen Verhältnisses zwischen der Neuzeit und der Krise bleibt auch in den folgenden Schriften das Thema Kosellecks, wenn er sich mit der historischen Zeitlichkeit beschäftigt. Das Ziel dieses Aufsatzes besteht darin, diese Beziehung zu rekonstruieren, und zwar darzustellen, wie Koselleck den auf den semantischen Raum der Krankheit und der Pathologie verweisenden Krisenbegriff als diagnostische und prognostische Kategorie verwendet, um die spezifische Natur der historischen Wandlung zur modernen Welt festzulegen.
The amyloid precursor protein (APP) was discovered in the 1980s as the precursor protein of the amyloid A4 peptide. The amyloid A4 peptide, also known as A-beta (Aβ), is the main constituent of senile plaques implicated in Alzheimer’s disease (AD). In association with the amyloid deposits, increasing impairments in learning and memory as well as the degeneration of neurons especially in the hippocampus formation are hallmarks of the pathogenesis of AD. Within the last decades much effort has been expended into understanding the pathogenesis of AD. However, little is known about the physiological role of APP within the central nervous system (CNS). Allocating APP to the proteome of the highly dynamic presynaptic active zone (PAZ) identified APP as a novel player within this neuronal communication and signaling network. The analysis of the hippocampal PAZ proteome derived from APP-mutant mice demonstrates that APP is tightly embedded in the underlying protein network. Strikingly, APP deletion accounts for major dysregulation within the PAZ proteome network. Ca2+-homeostasis, neurotransmitter release and mitochondrial function are affected and resemble the outcome during the pathogenesis of AD. The observed changes in protein abundance that occur in the absence of APP as well as in AD suggest that APP is a structural and functional regulator within the hippocampal PAZ proteome. Within this review article, we intend to introduce APP as an important player within the hippocampal PAZ proteome and to outline the impact of APP deletion on individual PAZ proteome subcommunities.
Background: Infection is a main cause of morbidity and mortality after heart surgery, with multi-resistant pathogens increasingly representing a challenge. Daptomycin provides bactericidal activity against gram-positive organisms that are resistant to standard treatment including vancomycin.
Methods: A cohort of cardiac surgical patients, treated with daptomycin for major infection at two tertiary care centers, were retrospectively studied with a particular focus on the type of infection, causative pathogens and co-infections, daptomycin dosage, adverse events and outcome in order to provide evidence for the efficiency and safety of daptomycin in a distinct high-risk patient population.
Results: Sixty-five patients (87.7 % males, 60.4 ± 13.5 years) who had undergone aortic surgery (20.0 %), ventricular assist device (VAD) implantation (21.5 %), combined procedures (21.5 %), coronary artery bypass grafting (12.3 %), isolated valve surgery (15.4 %) and heart transplantation (7.7 %) were diagnosed with catheter-related infection (26.1 %), valve endocarditis (18.8 %), sternal wound (13.0 %), VAD-associated (11.6 %), cardiac implantable electrophysiological device (CIED)-associated (4.1 %), respiratory tract (4.3 %), bloodstream (4.3 %) and other infection (4.3 %). In 13.0 %, no focus of infection was identified though symptoms of severe infection were present. The most frequent pathogens were Staphylococcus epidermidis (30.4 %), Staphylococcus aureus (23.1 %) and Enterococcus species (10.1 %). Daptomycin doses ranging from 3 mg/kg every 48 h to 10 mg/kg every 24 h were administered for 15.4 ± 11.8 days. 87.0 % of the cases were classified as success, 7.2 % as treatment failure and 5.8 as non-evaluable. Adverse events were limited to one case of mild and one case of moderate neutropenia with recovery upon termination of treatment.
Conclusion: Daptomycin proved safe and effective in major infection in high-risk cardiac surgical patients.
A small collection of Odonata from Nuku Hiva Island, Marquesas Islands is presented. It adds Anax guttatus as a new species to this oceanic group. Hemicordulia sp. nov. is reported, but not described because the same species has been sampled before and is pending a formal description. A short taxonomic discussion on observed morphological similarity of male anal appendages in taxa presently assigned to Amorphostigma, Hivaagrion and Ischnura east of New Caledonia is provided. Important considerations for biogeography of the Pacific Odonata are discussed too.
New data on Odonata of the Guadalcanal Island, Solomon Islands are provided following a recently completed Rapid Biodiversity Assessment of the Tetena Haiaja ridge. Two new species, Lieftinckia ulunorum and Procordulia valevahalo are described.
The first is a new member of the Solomon Islands endemic genus while the second is a new genus for the country and the second validated species from the Corduliidae family known from this Pacific archipelago. As L. ulunorum is found to be very closely related to formerly known L. lairdi Lieftinck, 1963, which was also collected during the field trip, both are described in detail based on mature adults and teneral specimens. Comparison with L. salomonis Kimmins, 1957 (investigated only from figures published in the original species description) and Salomoncnemis gerdae Lieftinck, 1987 (also sampled during this study) were provided as well.
Additional morphological data is given on the following species: Teinobasis bradleyi Kimmins, 1957, female is illustrated here for the first time; Anax sp. cf. gibbosulus, second record of the genus for the country and Gynacantha amphora Marinov & Theischinger, 2012, originally described by a single male, here the description of the female is provided.
All other species collected during the field trip will be published separately in the final expedition report.
The results of a short collecting trip to Perlis in the northwest
of Peninsular Malaysia are reported. Eighty three species were collected, at least 61 of these are new records for the state, and three species are recorded from Malaysia for the first time: Euphaea
masoni Selys, 1879, Archibasis oscillans (Selys, 1877) and Paracercion calamorum (Ris, 1916). A checklist of the Odonata recorded from Perlis is given in an appendix.
This PhD thesis has been carried out within an interdisciplinary cooperational project between the Deutsches Bergbau-Museum Bochum and the Goethe-Universität Frankfurt, which is dedicated to ancient Pb-Ag mining and metal production in the hinterland of the municipium Ulpiana in central Kosovo. Geochemical analysis (OM, XRD, EMP, MC-ICP-MS) of ores, metallurgical (by-) products and metal artefacts allowed to reconstruct the local chaîne opératoire and to decipher significant chronological differences between presumably Roman/late antique and medieval/early modern metallurgical processing. Pb isotope provenance studies documented the relevance of local metal production within the Roman Empire and confirmed the actual existence of a Metalla Dardanica district, which until now solely has been suspected on basis of epigraphy.
The predominant abundance of the by-products matte (Cu, Pb, Fe and Zn sulphides) and speiss (ferrous speiss: Fe-As compounds; base metal speiss: ~(Cu,Ni,Fe,Ag )x(Sb,Sn,As )y ) at smelting sites with a preliminary Roman/late antique dating points to treatment of complex polymetallic ore. Pb isotope analysis demonstrated that the mining district of Shashkoc-Janjevo (partially) supplied six of the ten investigated metallurgical sites. In this mineralisation, parageneses with elevated Cu, As and Sb abundances comprise significant proportions of particularly tennantite-tetrahedrite minerals, chalcopyrite, arsenopyrite and were generated during the early and main stages of ore formation. Later precipitated ore in contrast is marked by a significantly less versatile mineralogy and consists almost exclusively of galena, sphalerite and pyrite/marcasite. Besides increased Cu, As and Sb contents, ore from the main formation stage also exhibits generally higher Ag abundances, which are mainly hosted by fahlore and locally abundant secondary Cu sulphides (chalcocite, digenite and covellite) and oxidised phases (e.g. malachite, azurite). The higher precious metal grades of this ore type, whose geochemical signature (i.e. higher proportions of Cu, As and Sb) is mirrored by the abundance of the metallurgical by-products matte and speiss (almost exclusively found at potentially Roman/late antique smelting sites; see above), presumably were a pivotal factor leading to its preferential exploitation in earlier times. Matte and base metal-rich speiss contain notable amounts of Ag, which are mainly present in Cu-(Fe) sulphides and particularly antimonides ((Cu,Ni)2Sb, Ag3Sb), respectively. While the speiss compounds due to their close association with Pb bullion presumably were cupelled automatically, the metallurgical treatment of matte could not have been proven unambiguously, but overall certainly is highly likely.
The beneficiated ore (i.e. crushed and sorted, potentially also treated by more lavish techniques such as grinding, sieving or wet-mechanical methods) possibly was partially roasted and subsequently together with fluxes and charcoal submitted to the furnaces. The working temperatures approximately ranged between 1100 and 1400 °C. Slags from all presumably Roman/late antique dated and few of their potentially medieval/early modern analogues were produced from smelting of (partially roasted) ore with charcoal and added siliceous material, thus resulting in fayalite-dominant phase assemblages or rarely observed glassy parageneses. Even though several subtypes of fayalite slags have been established on basis of the abundance of Fe-rich oxide phases (i.e. spinel ss and wüstite), late clinopyroxene and the general solidification sequence of the slags, the process conditions (i.e. temperature, fO2, added fluxing agents) must have been widely similar; chemical variations could be explained by varying degrees of interaction of the slag melt with charcoal ash and furnace material. The other investigated metallurgical remains indicate employment of a calcareous flux, which led to formation of Ca-rich olivine-, olivine+clinopyroxene-, clinopyroxene- or melilite-type slags. These types as well as glassy slags were generated at more oxidising conditions outside the fayalite stability field (FMQ buffer equilibrium, cf. Lindsley, 1976) than their olivine-dominant analogues. Conclusions on the furnace construction could be drawn on basis of the typology of the slags, which mostly were tapped into a basin located outside the furnace, but partially (at two presumably medieval/early modern sites) also accumulated in a reservoir within the smelter.
Lead artefacts excavated in Ulpiana could be isotopically related to ores from mineralisations in its vicinity and demonstrate that the resources were at least utilised for local metal production. However, also ship wreck cargo from Israel - including several lead ingots with the inscription 'MET DARD' (Raban, 1999) - and late antique lead-glazed pottery from Serbia and Romania (Walton & Tite, 2010) could be related to a possible Kosovarian/Serbian provenance of the raw material and thus indicate flourishing trade of metal from the Metalla Dardanica district within the Roman Empire.
References:
Lindsley, D. H. (1976). Experimental studies of oxide minerals. In D. Rumble, III (Hrsg.), Oxide minerals (61-88). Reviews in Mineralogy, Volume 3. Washington, DC: Mineralogical Society of America.
Raban, A. (1999). The lead ingots from the wreck site (area K8). Journal of Roman Archaeology, Supplementary Series, 35, 179-188.
Walton, M. S., & Tite, M. S. (2010). Production technology of Roman lead-glazed pottery and its continuance into late antiquity. Archaeometry, 52(5), 733-759.
Records of Odonata collected in the vicinity of the Borneo Highlands Resort on Gunung Penrissen in south western Sarawak in the period 2014-2016 are presented.
Notable records include new species of Telosticta Dow & Orr, 2012, Rhinocypha Rambur, 1842 and Leptogomphus Selys, 1878, as well as the first record of the recently described genus Borneogomphus Karube & Sasamoto, 2014 from Sarawak.
We compare the cost effectiveness of two pronatalist policies:
(a) child allowances; and
(b) daycare subsidies.
We pay special attention to estimating how intended fertility (fertility before children are born) responds to these policies. We use two evaluation tools:
(i) a dynamic model on fertility, labor supply, outsourced childcare time, parental time, asset accumulation and consumption; and
(ii) randomized vignette-survey policy experiments.
We implement both tools in the United States and Germany, finding consistent evidence that daycare subsidies are more cost effective. Nevertheless, the required public expenditure to increase fertility to the replacement level might be viewed as prohibitively high.
We extend the classical ”martingale-plus-noise” model for high-frequency prices by an error correction mechanism originating from prevailing mispricing. The speed of price reversal is a natural measure for informational efficiency. The strength of the price reversal relative to the signal-to-noise ratio determines the signs of the return serial correlation and the bias in standard realized variance estimates. We derive the model’s properties and locally estimate it based on mid-quote returns of the NASDAQ 100 constituents. There is evidence of mildly persistent local regimes of positive and negative serial correlation, arising from lagged feedback effects and sluggish price adjustments. The model performance is decidedly superior to existing stylized microstructure models. Finally, we document intraday periodicities in the speed of price reversion and noise-to-signal ratios.
Stephan Günzel, dem Herausgeber des hier anzuzeigenden 'Lexikons der Raumphilosophie', verdankt die kulturwissenschaftliche Forschung zu Begriff und Metapher des Raumes eine Reihe bedeutsamer Publikationen. Den Auftakt bildete der zusammen mit Jörg Dünne herausgegebene Band 'Raumtheorie' aus dem Jahre 2006, eine klug und umsichtig eingeleitete Auswahl gleichsam kanonischer Texte zu Raum und Räumlichkeit. Diesem Reader trat drei Jahre später ein 'Raumwissenschaften' überschriebener, nunmehr von Günzel alleine verantworteter Band zur Seite, der eine stattliche Anzahl von Einzelbeiträgen verschiedener Autoren unterschiedlichster Disziplinen zusammenbrachte. Der Sammelband gab Einblick in den damaligen Stand kulturwissenschaftlicher Arbeit am Raum; vor allem machte er deutlich, welch hohe Relevanz die Diskussion um Begriff und Metapher des Raumes für die einzelnen Disziplinen und deren aktuelle Forschungsarbeit beanspruchen kann. Auf die Dokumentation der Quellen und den Maßstäbe setzenden Sammelband folgt nun also ein Wörterbuch - zusammen mit den beiden Vorgängerveröffentlichungen bildet das jüngst erschienene 'Lexikon' eine Trilogie des 'spatial turn' im Bereich der deutschsprachigen Forschung.
Zieht man die vergeblichen Versuche der Mediziner und Philosophen in Betracht, eine sowohl praktikable, theoretisch konsistente und ethisch vertretbare Definition von Krankheit zu erarbeiten, wird die Differenz von Krankheitsbegriff und -metapher insgesamt problematisch. Der aktuell gebräuchliche, systemtheoretische Krankheitsbegriff bezieht sich beispielsweise gar nicht mehr auf Lebewesen, sondern auf die Kopplung bio-psycho-sozialer Systeme. Die Bindestriche in diesem Begriff übernehmen gewissermaßen die Funktion der Metapher: den Sprung über Kategoriengrenzen. Wenn Metaphern in den Wissenschaften grundsätzlich keinen guten Ruf genießen, gilt dies insbesondere für Krankheitsmetaphern. Zuletzt ist ihre Bedeutung für die pseudo-medizinische Legitimation und Durchführung des Holocaust umfangreich erforscht worden. Mit dem Paradigmenwechsel von der Hygiene zur Bakteriologie wurden Krankheiten demnach nicht mehr auf äußere Umstände, sondern auf labortechnisch identifizierbare Kontagien zurückgeführt. Diese medizinische 'Visualisierung des Feindes', welche Robert Koch durch die Markierung von Gewebeschnitten mit Annelinfarbe entscheidend voranbrachte, bot zusammen mit der monokausalen und ontologisierenden Erklärung von Krankheiten große metaphorische Anschlussflächen für die (bio-)politischen Diskurse, die sich seit dem 19. Jahrhundert mehr und mehr mit der Sicherung und Steigerung des Lebens beschäftigten.
"Nichts ist variabler als die Bedeutung des Wortes Variabilität", meint Hugo de Vries 1901; und kaum etwas so mutabel wie die des Wortes 'Mutation'. Aber was heißt das schon? Weil wir, so Ludwik Fleck, "fortwährend Zeugen sind, wie 'Mutationen' des Denkstils eintreten"? Fleck führt 1935 die Mutationen ein, als er beschreibt, wie aus "Urideen" moderne Begrifflichkeit entsteht, indem etwa "[m]it einem Mal [...] unklar [wurde], was Art, was Individuum sein soll [...]." Sein wissensgeschichtlicher Bezug auf den seinerzeit bereits biologisch ausgewiesenen Begriff konzediert jedoch selbst einen Denkstil, demnach Erkenntnisse der Wissenschaften vom Leben, namentlich der Mutationstheorie, dazu taugen, kulturelle Entwicklungen zu kennzeichnen. Damit steht er freilich seinerzeit nicht allein. Soziologen, Historiker, Anthropologen, Literaturwissenschaftler und eben auch historische Epistemologen hatten sich dem Begriff der Mutation bereits massiv zugewandt. Maßgeblich nach Hugo de Vries' 'Die Mutationstheorie' (1901/1903) kehren plötzliche Wandlungen in der Konzeption von längeren Entwicklungsverläufen vermehrt in die Natur- und Geisteswissenschaften ein und stellen die Kontinuität von Arten, Ideen, Begriffen zur Disposition. Doch besieht man die Machart des Begriffs in diesem für die Mutationsforschung konstitutiven Buch, so zeigen sich statt einer sprunghaften begrifflichen Neubildung tatsächlich imposante historische Allianzen und intentionale, performative Umwertungen, die eben nicht jählings auf kollektiver Ebene, sondern auch durch einzelne Begriffsautoren einigermaßen aufwändig in einen 'neuen' Begriff überführt werden.
Expression of kidney injury molecule-1 (Kim-1) is rapidly upregulated following tubular injury, constituting a biomarker for acute kidney damage. We examined the renal localization of Kim-1 expression in PKD/Mhm (polycystic kidney disease, Mannheim) (cy/+) rats (cy: mutated allel, +: wild type allel), an established model for autosomal dominant polycystic kidney disease, with chronic, mainly proximal tubulointerstitial alterations. For immunohistochemistry or Western blot analysis, kidneys of male adult heterozygously-affected (cy/+) and unaffected (+/+) littermates were perfusion-fixed or directly removed. Kim-1 expression was determined using peroxidase- or fluorescence-linked immunohistochemistry (alone or in combination with markers for tubule segments or differentiation). Compared to (+/+), only in (cy/+) kidneys, a chronic expression of Kim-1 could be detected by Western blot analysis, which was histologically confined to an apical cellular localization in areas of cystically-transformed proximal tubules with varying size and morphology, but not in distal tubular segments. Kim-1 was expressed by cystic epithelia exhibiting varying extents of dedifferentiation, as shown by double labeling with aquaporin-1, vimentin or osteopontin, yielding partial cellular coexpression. In this model, in contrast to other known molecules indicating renal injury and/or repair mechanisms, the chronic renal expression of Kim-1 is strictly confined to proximal cysts. Its exact role in interfering with tubulo-interstitial alterations in polycystic kidney disease warrants future investigations.
Fit to play : posture and seating position analysis with professional musicians - a study protocol
(2017)
Background: Musical performance-associated musculoskeletal disorders (MSD) are a common health problem among professional musicians. Considering the manifold consequences arising for the musicians, they can be seen as a threat for their professional activity. String players are the most affected group of musicians in this matter. Faults in upper body posture while playing the instrument, causing un-ergonomic static strain on the back and unergonomic limp-movements, are a main reason for musculoskeletal disorders and pain syndromes.
Methods: A total of 66 professional musicians, divided into three groups, are measured.
The division is performed by average duration of performance, intensity of daily exercise and professional experience. Video raster stereography, a three-dimensional analysis of the body posture, is used to analyse the instrument-specific posture. Furthermore the pressure distribution during seating is analysed. Measurements are performed because the musician is sitting on varying music chairs differing in structure and/or construction of the seating surface. The measurements take place in habitual seating position as well as during playing the instrument.
Results: To analyse the influence of different chairs, ANOVA for repeated measurements or Friedman-test is used, depending on normality assumptions. Comparison of posture between amateur musicians, students, and professional orchestral musicians is carried out the non-parametric Jonckheere-Terpstra-test.
Conclusions: Our method attempts to give the musicians indications for the right music chair choice by analyzing the chair concepts, so that thereby preemptively MSD can be reduced or prevented.
The critical debates of liberal peace are grounded in a "paradox of liberalism" (Sabaratnam 2013): Western liberalism is criticized as oppressive, colonial and bellicose, but also implicitly relied on as the source of emancipation. This has not rejected in a rejection of liberal interventionism, but rather in demands for more cultural sensitivity, more local participation or an efficient control to save the idea of liberal peace...
Die Wahlen über den Verbleib Großbritanniens in der EU haben die europäische Ordnung erschüttert. Der Vortrag/Die Präsentation soll nicht nur die Hintergründe beleuchten, sondern auch zeigen, welche Chancen die neue Situation eröffnet, Chancen, die es vorher so nicht gegeben hat...
Three basic elements should be part of researching in contexts where power asymmetries and colonial connotations are relevant (which applies to many, if not the majority of research contexts in conflict studies): a thorough reflexivity of the researcher’s own role and social conditioning, the construction of research as a political act as it intervenes in scientific and political discourse, and the fact that (especially empirical) research is a product of many (Kaltmeier 2012, Abu Lughod 1991)...