Refine
Year of publication
Document Type
- Article (30570)
- Part of Periodical (11906)
- Book (8260)
- Doctoral Thesis (5708)
- Part of a Book (3721)
- Working Paper (3386)
- Review (2878)
- Contribution to a Periodical (2369)
- Preprint (2077)
- Report (1544)
Language
- German (42456)
- English (29259)
- French (1067)
- Portuguese (723)
- Multiple languages (309)
- Croatian (302)
- Spanish (301)
- Italian (195)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (75259) (remove)
Keywords
- Deutsch (1038)
- Literatur (809)
- taxonomy (760)
- Deutschland (543)
- Rezension (491)
- new species (449)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Linguistik (268)
Institute
- Medizin (7694)
- Präsidium (5190)
- Physik (4463)
- Wirtschaftswissenschaften (2698)
- Extern (2661)
- Gesellschaftswissenschaften (2373)
- Biowissenschaften (2184)
- Biochemie und Chemie (1974)
- Frankfurt Institute for Advanced Studies (FIAS) (1687)
- Center for Financial Studies (CFS) (1630)
The mainstream law and economics approach has dominated positive analysis and normative design of economic regulations. This approach represents a form of applied neoclassical and new institutional economics. Neoclassical and/or new institutional economic theories, models, and analytical concepts are applied automatically to economic regulatory problems.
This automatic application of neoclassical economics to economic regulatory problems loses sight of the valid insights of non-neoclassical schools of economic thought and theories, which may illuminate important aspects of the regulatory problems. This thesis, therefore, advocates an integrated law and economics approach to economic regulations. This approach identifies the relevant insights of neoclassical and non-neoclassical schools of thought and theories and refines them through a process of cross-criticism. In this process, the insights of each school of thought are subjected to the critiques of other schools of thought. The resulting refined insights, which are more likely to be valid, are then integrated consistently through various techniques of integration.
Not only does neoclassical (micro and macro) law and economics overlook the valid insights of non-neoclassical schools of thought, it is also highly reductionist. It ignores the interdependencies of legal institutions, highlighted mainly by the comparative capitalism literature, and the structural interlinkages among socio-economic actors, highlighted by economic sociology and complexity economics. Rather, it takes rational individuals and their interactions subject to the constraint of isolated institution(s) as its unit of analysis. In place of this reductionist perspective, the thesis argues for a systemic approach to economic regulations. This systemic perspective replaces the reductionist unit of neoclassical regulatory analysis with a systemic unit of analysis that consists of the least non-decomposable actors’ network and its associated least non-decomposable institutional network. Then, the thesis develops an operationalized and replicable systemic framework for systemic analysis and design of institutional networks.
Both the systemic and integrated approaches are theoretically consistent and complementary. The systemic approach is in essence a way of thinking that requires a broad and rich informational basis that can be secured by using the integrated approach. Due to their complementarity, they give rise to what I call “the integrated and systemic law and economics approach.” The thesis operationalizes this approach by setting out well-defined replicable steps and applying them to concrete regulatory problems, namely, the choice of a corporate governance model for developing countries and the development of a normative theory of economic regulations. These concrete applications demonstrate the critical bite of the integrated and systemic approach, which reveals significant shortcomings of mainstream law and economics’ answers to these regulatory questions. They also show the constructive potential of the integrated and systemic approach in overcoming the critiques advanced to the neoclassical regulatory conclusions.
The operationalized integrated and systemic approach is both a law and economics as well as a law and development approach. It does not only provide an alternative to mainstream law and economics analysis and design of economic regulations. It also fills a significant analytical lacuna in the law and development literature that lacks an analytical framework for analysis and design of context-specific legal institutions that can promote economic development in developing economies.
In the adult mammalian brain stem cells within defined neurogenic niches retain the capacity for lifelong de novo generation of neurons. The subventricular zone (SVZ) of the lateral ventricles and the subgranular layer (SGL) of the hippocampal dentate gyrus (DG) have been identified as the two major sites of adult neurogenesis. Moreover, the third ventricle in the hypothalamus is emerging as a new neurogenic niche in the adult brain. Extracellular purine and pyrimidine nucleotides are involved in the control of both embryonic and adult neuro-genesis. These nucleotides act via ionotropic P2X or metabotropic P2Y receptors and studies of the adult SVZ and the DG provide strong evidence that ATP promotes progenitor cell proliferation in this stem cell rich regions. Previous studies have shown that the extracellular nucleotide-hydrolyzing enzyme NTPDase2 is highly expressed by adult neural stem and progenitor cells of the SVZ and the rostral migratory stream (RMS), the hippocampal SGL, and the third ventricle. NTPDase2 preferentially hydrolyzes extracellular nucleoside triphosphates (NTPs) and, to a lower extent, diphosphates, thus modulating their effect on nearby nucleotide receptors. Deletion of the enzyme increases extracellular NTP concentrations, and might indicate roles of purinergic signaling in adult neurogenesis. As shown by enzyme histochemistry, genetic deletion of NTPDase2 essentially eliminates ATPase activity in neurogenic niches but does not affect protein expression levels and activity of other ectonucleotidases. Lack of NTPDase2 leads to expansion of the hippocampal stem cell pool as well as of the inter-mediate progenitor type-2 cells. Cell expansion is lost at around type-3 stage, paralleled by increased labeling for caspase-3, indicating increased apoptosis, and decreased levels in CREB phosphorylation in doublecortin-expressing cells, diminishing survival in this cell population. In line with increased cell death, P2Y12 receptor-expressing microglia is enriched at the hilus orientated side of the granule cell layer. These data strongly suggest that NTPDase2 functions as central homeostatic regulator of nucleotide-mediated neural progenitor cell proliferation and expansion in the adult brain by balancing extracellular nucleotide concentrations and activation of purinergic receptors.
In order to further characterize the role of purinergic signaling in adult neurogenesis, the ADP-sensitive P2Y13 receptor was identified as a potential candidate whose activation might inhibit neurogenesis in the hippocampal dentate gyrus and the newly identified neurogenic niche at the third ventricle. Deletion of P2ry13 increased progenitor cell proliferation and long-term progenitor survival as well as new neuron formation in the hippocampal neurogenic niche. This was further paralleled by increased thickening of the granule cell layer, CREB phosphorylation, and expression of the neuronal activity marker c-Fos. Increased progenitor cell proliferation and progenitor survival persist in aged P2ry13 knockout animals. However, in the ventral dentate gyrus proliferation and expansion levels of progenitor cells did not differ significantly from the wild type. This study strongly supports the notion that extracellular nucleotides significantly contribute to the control of adult neurogenesis in the dentate gyrus in situ. Data in this work suggest that activation of the P2Y13 receptor dampens progenitor cell proliferation, new neuron formation, and neuronal activity. In contrast to several in vitro studies and studies in the SVZ in situ, a contribution of the ATP/ADP-sensitive P2Y1 receptor could not be confirmed in the dentate gyrus in vivo.
To unravel implications of purinergic signaling and P2Y13 receptor action in the control of adult hypothalamic neurogenesis a pilot study was performed. Mice null for P2ry13 revealed increased progenitor cell proliferation at the third ventricle as well as long-term progeny survival and new neuron formation in the hypothalamus. In contrast to results obtained in the dentate gyrus expression of the neuronal activity marker c-Fos was significantly decreased in hypothalamic nuclei, indicating increased inhibition of appetite-regulating neuronal circuits by surplus neurons in knockout animals. These data provide first evidence that extracellular nucleotide signaling contributes to the control of adult hypothalamic neurogenesis in situ. Activation of the P2Y13 receptor inhibits progenitor cell proliferation, long-term survival and neuron formation and therefore controls inhibition of appetite-regulating circuits in the adult rodent hypothalamus.
In dieser Arbeit wurde YM155 anhand eines Neuroblastom-Zellmodells bezüglich seiner antitumoralen Wirkung, sowie möglicher Resistenzmechanismen untersucht. Mit Hilfe eines Viabilitäts-‚Screenings‘ wurde eine Auswahl von 113 chemosensitiven und chemoresistenten Neuroblastomzellen auf mögliche Kreuzresistenzen gegen YM155 untersucht. Hinsichtlich der IC50 Werte gegen YM155, lagen insgesamt 74 % der untersuchten Zelllinien im therapeutisch erreichbaren Bereich von unter 50 nM. Zusätzlich wurden Neuroblastom-, Mammakarzinom- und Prostatakarzinomzellen an eine klinisch relevante YM155 Konzentration adaptiert. Diese zeigten wiederum, dass durch die Adaptierung hervorgerufene Expressionsänderung des ABC-Transporters ABCB1 und des ‚solute carrier‘ Protein SLC35F2 eine bedeutsame Rolle hinsichtlich des Resistenzmechanismus gegen YM155 spielen. Durch den Einsatz von spezifischen ABCB1-Inhibitoren, als auch durch siRNA-vermittelte Reduzierung von ABCB1 konnte eine Abhängigkeit für die Wirksamkeit YM155 von ABCB1 in Neuroblastomzellen bestätigt werden. Des Weiteren wurde in den untersuchten Zelllinien ein Zusammenhang zwischen der Wirkung von YM155 und der Expression des ‚solute carrier‘ Proteins SLC35F2 hergestellt. Dazu wurden Zellen mit verminderter SLC35F2 Expression verwendet, welche durch Transduktion mit einem für eine SLC35F2 spezifische shRNA kodierenden Vektor etabliert wurden. Dabei führte eine verminderte SLC35F2 Expression zu einer starken Minderung der Sensitivität gegen YM155. Das Zusammenspiel dieser beiden Transporter und der damit verbundene Resistenzmechanismus gegen YM155, konnte in fast allen etablierten YM155-resistenten Zelllinien (UKF-NB-3rYM15520, 22RV1rYM155300, PC-3rYM15520, HCC-1806rYM15520 und MDA-MB-231rYM15520) gezeigt werden. Wobei diese Zellen unabhängig von der Tumorentität als Resistenzmechanismus gegen YM155 entweder eine signifikant induzierte ABCB1 Expression (verstärkter YM155 Efflux) und/oder eine verminderte SLC35F2 Expression (verringerter YM155 Influx) entwickelten. Außerdem konnte mit Hilfe der p53-depletierten Zelllinie UKF-NB-3pc-p53 eine Abhängigkeit der YM155 Wirkung vom Tumorsuppressor p53 nachgewiesen werden, wobei es durch die Depletierung von p53 zu einer verminderten Sensitivität der Zellen gegen YM155 kam. Zudem kam es durch die Nutlin-3 hervorgerufene p53 Aktivierung und Akkumulierung zu einer Verstärkung der YM155 Wirkung in den untersuchten Zellen. Diese Ergebnisse deuten darauf hin, dass der p53 Status von Zellen einen Einfluss auf deren YM155 Resistenz haben kann. Da in der Behandlung von Neuroblastomen neben der Chemotherapie auch Bestrahlung eingesetzt wird, wurde zusätzlich untersucht ob eine Adaptierung von Neuroblastomzellen an YM155 zu einer verminderten Sensitivität gegen Bestrahlung führen kann. Da die im Rahmen dieser Arbeit untersuchten UKF-NB-3 Zelllinien (UKF-NB-3 und UKF-NB-3rYM15520) eine ähnliche Sensitivität gegenüber der Bestrahlung aufwiesen, konnte kein Zusammenhang zwischen einer Adaptierung an YM155 und der Ausbildung einer Bestrahlungsresistenz gezeigt werden.
Ein weiterer wichtiger Teil dieser Arbeit war es, den primären Wirkmechanismus von YM155 in Neuroblastomzellen zu untersuchen. In vorangegangenen Studien wurde die vom Hersteller beschriebene Wirkung von YM155 als Survivin-Inhibitor in Frage gestellt. Stattdessen soll der primäre Apoptose-induzierende Effekt in erster Linie durch DNA-Schäden hervorgerufen werden, während die Survivin Inhibierung lediglich darauf folgen soll. In einer zeitlichen und konzentrationsabhängigen Kinetik der YM155 Behandlung konnte in UKF-NB-3 Zellen der genaue Zeitpunkt der Survivin-Inhibierung und der Induktion der DNA-Schadensantwort ermittelt werden. Dabei konnte in der vorliegenden Arbeit gezeigt werden, dass in Neuroblastomzellen als Antwort auf die YM155 Behandlung zuerst eine Survivin-Inhibierung erfolgt, und die DNA-Schadensantwort als Folge dieser induziert wird. Darüber hinaus belegte die siRNA-vermittelte Survivin-Inhibierung in UKF-NB-3 und UKF-NB-6, dass eine fehlende Survivin Expression die DNA-Schadensantwort induziert.
Zusammenfassend konnte in dieser Arbeit erstmals in YM155 adaptierten Neuroblastomzellen der Resistenzmechanismus gegen YM155 näher untersucht werden und darüber hinaus wurde demonstriert, dass die Wirkung von YM155 in Neuroblastomzellen nicht auf die Induktion der DNA-Schadensantwort beruht, sondern primär auf die Survivin-Inhibierung zurückzuführen ist.
The baker’s yeast Saccharomyces cerevisiae is a valuable and increasingly important microorganism for industrial applications (Hong and Nielsen, 2012). Its robustness concerning process conditions like low pH, osmotic and mechanical stress as well as toxic compounds is an advantage. Moreover, S. cerevisiae is ‘generally regarded as safe’ (GRAS). The model organism has been studied intensively. The collected data, including genomic, proteomic and metabolic information, can be used to genetically modify and improve its metabolism. Fatty acids and fatty acid derivatives have wide applications as biofuels, biomaterials, and other biochemicals. Several studies have been dealing with the overproduction of fatty acids and derivatives thereof in S. cerevisiae. The fatty acid biosynthesis starting with acetyl-CoA requires two enzymes, the acetyl-CoA carboxylase (Acc1p) and the fatty acid synthase complex (FAS), to produce acyl-CoA esters with predominantly 16 to 18 carbon atoms chain length (Lynen et al., 1980). For the synthesis of monounsaturated fatty acids in S. cerevisiae the ER bound acyl-CoA desaturase, Ole1p is essential (Tamura et al., 1976; Certik and Shimizu, 1999).
Using S. cerevisiae, the first section of this work dealt with the heterologous characterization of potential ω1-desaturases. Due to the fact that unsaturated fatty compounds can be modified further by hydrosilylations, hydrovinylations, oxidations to epoxides, acids, aldehydes, ketones or metathesis reactions, the interest in ω1-fatty acids is tremendous (Behr and Gomes, 2010). With the intention to find enzymes in fungi, that have a terminal desaturase activity a search in different genome databases was performed. The sequences of Pex-Desat3 and Obr-TerDes were used as reference sequences. The analysed proteins from Schizophyllum commune (EFI94599.1), Schizosaccharomyces octosporus (EPX72095.1), Wallemia mellicola (EIM20316.1), Wallemia ichthyophaga (EOR00207.1) and Agaricus bisporus var. bisporus (EKV44635.1), however, finally turned out to be Δ9 desaturases. A fungal desaturase with ω1-activity could not be found. The Δ9 desaturase SCD1 from Mus musculus was crystallized by Bai et al. (2015) and the information for specific amino acids responsible for the substrate specificity or enzyme activity were allocated. In combination with sequence and enzyme activity data form ChDes1 from Calanus hyperboreus, Desat2 from Drosophila melanogaster, Pex-Desat3 from Planotortrix excessana and Obr-TerDes from Operophtera brumata single amino acid exchanges were performed in the Δ9 desaturase Ole1p from S. cerevisiae. For all mutants, only fatty acids (C16 - C18) with a double bond between carbon C9 and C10 could be found. This indicates, that all inserted amino acid exchanges do not affect the substrate specificity or the position of the introduced double bond.
In the second section the focus was in the development of a production system for fatty acids in S. cerevisiae with regard to the previously established procedures by metabolic engineering. The combination of cytosolic malate dehydrogenase (MDH3), cytosolic malate enzyme (MAE1) and a citrate- α-ketoglutarate- carrier (YHM2) should improve the availability of acetyl-CoA in the cytosol, which is an important precursor for the fatty acid biosynthesis. If the major pathway (acetyl-CoA carboxylase and fatty acid synthase) was already optimized by high expression levels than no positive effect on increased fatty acid synthesis was detectable. Only non-optimized strains, with the additional overexpression of ATP-citrate lyase and cytosolic malate dehydrogenase, lead to a 41 % (20 mg/g dcw) improvement of fatty acid synthesis. In order to increase the fatty acid content further, the additional overexpression of DGA1 and TGL3 was performed. Hence, the highest amount of fatty acids could be observed with the strain S. cerevisiae WRY1ΔFAA1ΔFAA4 (2.5 g/L ± 0.8 g/L). The additional elimination of acyl-CoA synthetase Fat1p did not improve the yield.
It was recently reported, that chain length control of the fatty acid synthesis of bacterial FAS can be changed by rational engineering (Gajewski et al., 2017a). The knowledge about bacterial FAS was transferred in this work to S. cerevisiae FAS. Mutating up to five amino acids in the FAS complex enabled S. cerevisiae to produce medium chain fatty acids (C6 - C12). Further improvement was done by metabolic pathway engineering (promoter of alcohol dehydrogenase II from S. cerevisiae (pADH2), deletion of acyl-CoA synthetase FAA2) and optimization of fermentation conditions (YEPD-bacto medium buffered with potassium phosphate). The production of medium chain fatty acids resulted in the highest yield of 464 mg/L (C6 to C12 fatty acids). Furthermore, strains were created specifically overproducing hexanoic acid (158 mg/L) and octanoic acid (301 mg/L). The characterization of transferases, which could be responsible for the de-esterification of CoA-bound fatty acids, was analysed in an additional approach. It could be shown, that the genes EHT1, EEB1 and MGL2 have an influence on the MCFA yield in the supernatant. Generally speaking, the data from the single and double deletion strains suggest that Eeb1p has a selective hydrolytic activity for hexanoic acid-CoA ester, while Eht1p shows selective hydrolytic activity for octanoic acid-CoA ester, which is in line with Saerens et al. (2006).
One of the most important shifts in mathematics learning and instruction in the last decades has taken place in the conception of the subject matter, changing from a perspective of mathematics as composed of concepts and skills to be learned, to a new one emphasizing the mathematical modelling of the reality (De Corte, 2004). This shift has had, as it is to be expected, an impact on classroom processes, and changed instructional settings and practices.
Instructional explanations, the object of study in the present work, are an interesting topic in that landscape, since they continue to be a typical form of classroom discourse, especially −but no exclusively−when new contents are introduced to the students (e.g. Leinhardt, 2001; Perry, 2000; Wittwer & Renkl, 2008). Consequently, good teachers are also supposed to be good explainers, independently whether they are the main speaker, or play the role of moderator in exchange between students (e.g. Charalambous, Hill, & Ball, 2011; Danielson, 1996; Inoue, 2009).
Despite the central role that instructional explanations play in classroom practices, current instructional quality models, which describe how effective teaching practices should look like, do not consider instructional explanations as a key element (Danielson, 1996; Klieme, Lipowsky, Rakoczy, & Ratzka, 2006; Pianta & Hamre, 2009). Moreover, aside from a few notable exceptions (Duffy, Roehler, Meloth, & Vavrus, 1986; Leinhardt & Steele, 2005; Perry, 2000), instructional explanations have not been investigated empirically within other traditions either. Thus, there is scarce of empirical work about instructional explanations and their potential contribution to promote students’ learning.
The purpose of the present work is to examine instructional explanations from a theoretical perspective as well as empirically, in order to characterize them and investigate their association with students’ learning outcomes. The underlying theoretical framework chosen to organize the study is the one proposed by Leinhardt (2001) with some adaptations according to pertinent complementary literature (Drollinger-Vetter & Lipowsky, 2006; Leinhardt & Steele, 2005).
The empirical work of this dissertation was carried out in the context of the project “Analysis of mathematic lessons” (FONIDE 209) funded by the Chilean Ministry of Education during 2007. This study, in turn, was embedded in the international extension of the research project the ‘‘Quality of instruction, learning, and mathematical understanding’’ carried out between 2000 and 2006 by the German Institute for International Educational Research (DIPF) in Frankfurt, Germany, and the University of Zurich in Switzerland (e.g. Klieme & Reusser, 2003; Klieme et al., 2006). According to the design of the original project, the study considers the inclusion of different perspectives, namely, teachers, students and external observers, by means of questionnaires, tests and classroom observation protocols.
The examination of instructional explanations in this dissertation begins in chapter 2 with the review of relevant literature and introduction of the theoretical background underpinning the study of instructional explanations. This theoretical review comprises three subsections, the first one describing the evolution of the process-product-paradigm into the actual instructional quality models that are presented in a next step. The second subsection includes a detailed theoretical presentation of explanations and instructional explanations, addressing the main theoretical issues and giving examples of the few empirical works about instructional explanations found in the literature. Finally, the third subsection with the description of Chilean teaching practices in order to contextualize the study.
Chapter 3 presents the research questions and lists the associated work hypotheses that are investigated throughout this work. Chapter 4 includes the methodological aspects of the work, indicating the description of the sample, design of the study, the methods used the gather the data and the analyses chosen to answer the proposed research questions.
Chapter 5 contains the presentation of results, which are organized by research question, starting with the results from quantitative analyses and continuing with the results from qualitative analyses. This chapter closes with a general summary of the results organized according to the central themes of the study. Finally, chapter 6 concludes with a discussion of the link between the results and the instructional explanations literature and research, or lack thereof, that originally motivated the research questions addressed in this study. This chapter finishes with a discussion of the limitations of the study and the implications of its results, as well as an examination of areas where the research on instructional explanations can be fruitfully expanded in the future.
In healthy older adults, resveratrol supplementation has been shown to improve long-term glucose control, resting-state functional connectivity (RSFC) of the hippocampus, and memory function. Here, we aimed to investigate if these beneficial effects extend to individuals at high-risk for dementia, i.e., patients with mild cognitive impairment (MCI). In a randomized, double-blind interventional study, 40 well-characterized patients with MCI (21 females; 50–80 years) completed 26 weeks of resveratrol (200 mg/d; n = 18) or placebo (1,015 mg/d olive oil; n = 22) intake. Serum levels of glucose, glycated hemoglobin A1c and insulin were determined before and after intervention. Moreover, cerebral magnetic resonance imaging (MRI) (3T) (n = 14 vs. 16) was conducted to analyze hippocampus volume, microstructure and RSFC, and neuropsychological testing was conducted to assess learning and memory (primary endpoint) at both time points. In comparison to the control group, resveratrol supplementation resulted in lower glycated hemoglobin A1c concentration with a moderate effect size (ANOVARM p = 0.059, Cohen's d = 0.66), higher RSFC between right anterior hippocampus and right angular cortex (p < 0.001), and led to a moderate preservation of left anterior hippocampus volume (ANOVARM p = 0.061, Cohen's d = 0.68). No significant differences in memory performance emerged between groups. This proof-of-concept study indicates for the first-time that resveratrol intake may reduce glycated hemoglobin A1c, preserves hippocampus volume, and improves hippocampus RSFC in at-risk patients for dementia. Larger trials with longer intervention time should now determine if these benefits can be validated and extended to cognitive function.
Evidence about distribution patterns of brain metastases with regard to breast cancer subtypes and its influence on the prognosis of patients is insufficient. Clinical data, cranial computed tomography (CT) and magnetic resonance imaging (MRI) scans of 300 breast cancer patients with brain metastases (BMs) were collected retrospectively in four centers participating in the Brain Metastases in Breast Cancer Registry (BMBC) in Germany. Patients with positive estrogen (ER), progesterone (PR), or human epidermal growth factor receptor 2 (HER2) statuses, had a significantly lower number of BMs at diagnosis. Concerning the treatment mode, HER2-positive patients treated with trastuzumab before the diagnosis of BMs showed a lower number of intracranial metastases (p < 0.001). Patients with a HER2-positive tumor-subtype developed cerebellar metastases more often compared with HER2-negative patients (59.8% vs. 44.5%, p = 0.021), whereas patients with triple-negative primary tumors had leptomeningeal disease more often (31.4% vs. 18.3%, p = 0.038). The localization of Brain metastases (BMs) was associated with prognosis: patients with leptomeningeal disease had shorter survival compared with patients without signs of leptomeningeal disease (median survival 3 vs. 5 months, p = 0.025). A shorter survival could also be observed in the patients with metastases in the occipital lobe (median survival 3 vs. 5 months, p = 0.012). Our findings suggest a different tumor cell homing to different brain regions depending on subtype and treatment. View Full-Text
Retinal OFF bipolar cells show distinct connectivity patterns with photoreceptors in the wild-type mouse retina. Some types are cone-specific while others penetrate further through the outer plexiform layer (OPL) to contact rods in addition to cones. To explore dendritic stratification of OFF bipolar cells in the absence of rods, we made use of the ‘cone-full’ Nrl-/- mouse retina in which all photoreceptor precursor cells commit to a cone fate including those which would have become rods in wild-type retinas. The dendritic distribution of OFF bipolar cell types was investigated by confocal and electron microscopic imaging of immunolabeled tissue sections. The cells’ dendrites formed basal contacts with cone terminals and expressed the corresponding glutamate receptor subunits at those sites, indicating putative synapses. All of the four analyzed cell populations showed distinctive patterns of vertical dendritic invasion through the OPL. This disparate behavior of dendritic extension in an environment containing only cone terminals demonstrates type-dependent specificity for dendritic outgrowth in OFF bipolar cells: rod terminals are not required for inducing dendritic extension into distal areas of the OPL.
Processes shaping the African Guineo-Congolian rain forest, especially in the West African part, are not well understood. Recent molecular studies, based mainly on forest tree species, confirmed the previously proposed division of the western African Guineo-Congolian rain forest into Upper Guinea (UG) and Lower Guinea (LG) separated by the Dahomey Gap (DG). Here we studied nine populations in the area of the DG and the borders of LG and UG of the widespread liana species, Chasmanthera dependens (Menispermaceae) by amplified fragment length polymorphism (AFLP), a chloroplast DNA sequence marker, and modelled the distribution based on current as well as paleoclimatic data (Holocene Climate Optimum, ca. 6 kyr BP and Last Glacial Maximum, ca. 22 kyr BP). Current population genetic structure and geographical pattern of cpDNA was related to present as well as historical modelled distributions. Results from this study show that past historical factors played an important role in shaping the distribution of C. dependens across West Africa. The Cameroon Volcanic Line seems to represent a barrier for gene flow in the present as well as in the past. Distribution modelling proposed refugia in the Dahomey Gap, supported also by higher genetic diversity. This is in contrast with the phylogeographic patterns observed in several rainforest tree species and could be explained by either diverging or more relaxed ecological requirements of this liana species.
The effect-response framework states that plant functional traits link the abiotic environment to ecosystem functioning. One ecosystem property is the body size of the animals living in the system, which is assumed to depend on temperature or resource availability, among others. For primary consumers, resource availability may directly be related to plant traits, while for secondary consumers the relationship is indirect. We used plant traits to describe resource availability along an elevational gradient on Mount Kilimanjaro, Tanzania. Using structural equation models, we determined the response of plant traits to changes in precipitation, temperature and disturbance with and assessed whether abiotic conditions or community-weighted means of plant traits are stronger predictors of the mean size of bees, moths, frugivorous birds, and insectivorous birds. Traits indicating tissue density and nutrient content strongly responded to variations in precipitation, temperature and disturbance. They had direct effects on pollination and fruit traits. However, the average body sizes of the animal groups considered could only be explained by temperature and habitat structure, not by plant traits. Our results demonstrate a strong link between traits and the abiotic environment, but suggest that temperature is the most relevant predictor of mean animal body size. Community-weighted means of plant traits and body sizes appear unsuitable to capture the complexity of plant-animal interactions.
Clustering of cardiovascular risk factors and carotid intima-media thickness : the USE-IMT study
(2017)
Background: The relation of a single risk factor with atherosclerosis is established. Clinically we know of risk factor clustering within individuals. Yet, studies into the magnitude of the relation of risk factor clusters with atherosclerosis are limited. Here, we assessed that relation.
Methods: Individual participant data from 14 cohorts, involving 59,025 individuals were used in this cross-sectional analysis. We made 15 clusters of four risk factors (current smoking, overweight, elevated blood pressure, elevated total cholesterol). Multilevel age and sex adjusted linear regression models were applied to estimate mean differences in common carotid intima-media thickness (CIMT) between clusters using those without any of the four risk factors as reference group.
Results: Compared to the reference, those with 1, 2, 3 or 4 risk factors had a significantly higher common CIMT: mean difference of 0.026 mm, 0.052 mm, 0.074 mm and 0.114 mm, respectively. These findings were the same in men and in women, and across ethnic groups. Within each risk factor cluster (1, 2, 3 risk factors), groups with elevated blood pressure had the largest CIMT and those with elevated cholesterol the lowest CIMT, a pattern similar for men and women.
Conclusion: Clusters of risk factors relate to increased common CIMT in a graded manner, similar in men, women and across race-ethnic groups. Some clusters seemed more atherogenic than others. Our findings support the notion that cardiovascular prevention should focus on sets of risk factors rather than individual levels alone, but may prioritize within clusters.
The widespread application of fertilizers has greatly influenced many processes and properties of agroecosystems, and agricultural fertilization is expected to increase even further in the future. To date, most research on fertilizer impacts has used short-term studies, which may be unrepresentative of long-term responses, thus hindering our capacity to predict long-term impacts. Here, we examined the effects of long-term fertilizer addition on key ecosystem properties in a long-term grassland experiment (Palace Leas Hay Meadow) in which farmyard manure (FYM) and inorganic fertilizer treatments have been applied consistently for 120 years in order to characterize the experimental site more fully and compare ecosystem responses with those observed at other long-term and short-term experiments. FYM inputs increased soil organic carbon (SOC) stocks, hay yield, nutrient availability and acted as a buffer against soil acidification (>pH 5). In contrast, N-containing inorganic fertilizers strongly acidified the soil (<pH 4.5) and increased surface SOC stocks by increasing the C stored in the coarse (2.8 mm-200 μm) and fine (200–50 μm) fractions. Application of N fertilizers also reduced plant species richness and the abundance of forbs and legumes. Overall, our results were broadly consistent with those observed in other very long-term studies (the Park Grass and Steinach Grassland experiments) in that fertilization effects on plant and soil properties appeared to be driven by differences in both nutrient input and changes to soil pH. We also established that the direction of long-term fertilization effects tended to be comparable with short-term experiments, but that their magnitude differed considerably, particularly where ammonium sulphate-induced acidification had occurred. We therefore conclude that short-term studies are unlikely to possess the required timeframe to accurately predict long-term responses, thus necessitating the use of long-term study sites. Such experiments should be strategically established in regions where future fertilizer use is expected to increase rapidly.
Bank regulators have the discretion to discipline banks by executing enforcement actions to ensure that banks correct deficiencies regarding safe and sound banking principles. We
highlight the trade-offs regarding the execution of enforcement actions for financial stability. Following this we provide an overview of the differences in the legal framework governing supervisors’ execution of enforcement actions in the Banking Union and the United States. After discussing work on the effect of enforcement action on bank behaviour and the real economy, we present data on the evolution of enforcement actions
and monetary penalties by U.S. regulators. We conclude by noting the importance of supervisors to levy efficient monetary penalties and stressing that a division of competences among different regulators should not lead to a loss of efficiency regarding
the execution of enforcement actions.
The centerpiece of all neuronal processes is the synaptic transmission. It consists of a complex series of events. Two key elements are the binding of synaptic vesicles (SV) to the presynaptic membrane and the subsequent fusion of the two membranes. SV are neurotransmitter-filled membranous spheres with many integral and peripheral proteins. The synaptic SNARE complex consists of three interacting proteins, which energize and regulate the fusion of the SV membrane with the presynaptic membrane. Both processes are closely orchestrated to ensure a specific release of neurotransmitter. Already many experiments have been performed, such as genetic screens and proteome analysis of SV, to determine the functions of the various proteins involved. Nevertheless, the functions of the identified proteins are still not fully elucidated. The aim of this thesis was initially applying a tandem affinity purification (TAP) of SV to identify unknown interaction partner of SV and to determine their role. This was supposed to be performed in the model organism Caenorhabditis elegans (C. elegans). The underlying mechanisms are conserved throughout the phylogentic tree and identified interaction partners will help to understand the processes in the mammalian brain. Although there is no neuron-rich tissue in C. elegans as in other model organisms, the diverse genetic methods allows a rapid creation of modified organisms and a prompt determination of the function of identified proteins. The integral SV protein synaptogyrin has been fused to a TAP-tag. The TAP-tag consists of a ProteinA, a TEV protease cleavage site and a calmodulin binding peptide (CBP). Both affinity purification steps are performed sequentially and allow a highly specific native purification of proteins and their interaction partners. Due to technical difficulties the purification strategy was modified several times during the course of this thesis and then finally abandoned for a more promising project, the SNARE complex purification. In conclusion, one of the reasons was the necessary lack of detergent.
The amended aim of this thesis has been the TAP of solubilized SNARE complex to identify unknown interaction partner and to determine their role. In order to increase the specificity of the purification, in terms of formed complexes, the two SNARE subunits, synaptobrevin (SNB-1 in C. elegans) and syntaxin (UNC-64 in C. elegans), were separately fused to the different affinity tags. As the modifications of the proteins could impair their function and lead to false interaction partners, their functionality was tested. For this purpose, the corresponding fusion constructs were expressed in strains with mutated snb¬1 and unc-64. Non-functional synaptic proteins display an altered course of paralysis in an aldicarb assay. The fusion proteins which were expressed in their respective mutant strains displayed a near to wild-type (WT) behavior in contrast to the naive mutant strains. Multiple TAP demonstrated SNB-1 signals in Western blot analysis and complex sets of proteins in the final elution step in a silver staining of SDS-PAGEs. These samples were sent with negative control (WT purification) for MS analysis to various cooperation partners. 119 proteins were identified which appeared only in data sets with SNARE proteins and not in WT samples. If proteins were detected in ≥ 2 SNARE positive MS analysis and had known neural functions or homologies to neuronal proteins in other species, they were selected for further analysis. These candidates were knocked down by RNAi and tested for synaptic function in a following aldicarb assay. The treatment with their specific RNAi resulted for mca-3 in a strong resistance, while frm-2, snap-29, ekl-6, klb-8, mdh-2, pfk-2, piki-1 and vamp-8 resulted in hypersensitivity. The most responsive genes frm-2, snap-29 and mca-3 were examined, whether they displayed a co-localization together with synaptobrevin in promoter fusion constructs or functional fusion constructs. In fluorescence microscopy images only MCA-3::YFP demonstrated neuronal expression.
In order to substantiate the synaptic nature and functionality of the MCA-3::YFP a swimming assay was performed. Here, fusion construct expressing strains, which contained mutated mca-3, were compared with untreated mutant strains and WT strains according to their behavior. In this swimming assay a partial restoration of WT behavior was shown in the MCA-3::YFP expressing mutant strains. Based on these data, we discovered with MCA 3 a new interaction partner of the SNARE complex. MCA-3 is a plasma membrane Ca2+-ATPase and was initially seen only in their role in the endocytosis. Its new putative role is the reduction of Ca2+ concentration at the bound SNARE complex. Since an interaction of syntaxin with Ca2+ channels has been demonstrated, it would be comprehensible to reduce the local concentration of Ca2+ to a minimum by tethering Ca2+ transporters to the SNARE complex.
The estimation of water balance components as well as water-related indicators on the land surface by means of global hydrological models have evolved in recent decades. Results of such models are frequently used in global- and continental-scale assessments of the current and future state of the terrestrial water cycle and provide a valuable data basis, e.g., for the Intergovernmental Panel on Climate Change. The Water – Global Assessment and Prognosis (WaterGAP) model is one of the state-of-the-art models in that field and has been in development and application for around 20 years. The evaluation, modification and application of WaterGAP is the subject of this thesis. In particular, the sensitivity of climate input data on radiation calculation and simulated water fluxes and storages is evaluated in the first part. Effects of model modification such as updated spatial input datasets, improved process representation or an alternative calibration scheme are the focus of the second part. Finally, three applications of WaterGAP give insight into the capabilities of that model, namely an estimate of global and continental water balance components, an assessment of groundwater depletion and the impact of climate change on river flow regimes. Model experiments, which are described in six journal papers as well as the appendices, were used as the basis for answering the total of 13 research questions. One of the major foci was to quantify the sensitivity of simulated water fluxes and storages to alternative climate input data. It was found that the handling of precipitation undercatch leads to the greatest difference in water balance components, especially in those areas where WaterGAP is not calibrated due to a lack of river discharge observations. The modifications of WaterGAP in the last few decades has led in general to an improved simulation of monthly river discharge, but process representation in semi-arid and arid regions still requires improvements. With the most current model version, WaterGAP 2.2b, and for the time period 1971–2000, river discharge to the oceans and inland sinks is estimated to be 40 000 km3 yr-1, whereas actual evapotranspiration is simulated as 70 500 km3 yr-1. Future research needs for WaterGAP in particular but also for the global hydrological model community in general are defined, promoting a community-driven effort for a robust assessment of the continental water cycle.
NOSTRIN belongs to the family of F-BAR proteins, which are multi-domain adaptor proteins that have emerged as important regulators of membrane remodeling and actin dynamics in a variety of vital cellular processes. They have been analyzed structurally and biochemically and overexpression studies have revealed their potential in inducing membrane curvature and tubulation. Several studies have begun to decipher the function of individual proteins, but the understanding of F-BAR protein functions in vivo is still quite limited. The F-BAR protein NOSTRIN is mainly expressed in endothelial cells and has originally been described as interaction partner of the endothelial nitric oxide synthase (eNOS), modulating eNOS subcellular localization. The phenotypic characterization of NOSTRIN knockout mice revealed decreased nitric oxide (NO) and cGMP levels, an increase in systolic blood pressure and an impairment of the acetylcholine-induced, NO-dependent relaxation of aortic rings from mice with global as well as endothelial cell-specific knockout of the NOSTRIN gene (ECKO) . These findings implied that NOSTRIN plays a role in regulating NO production in vivo, but the underlying molecular mechanisms were unclear. Therefore, this study was aimed at addressing the mechanism causing the inhibited vasodilation specifically upon stimulation with acetylcholine in NOSTRIN KO and ECKO mice, and at exploring additional roles of NOSTRIN in the signal transduction of endothelial cells.
The major acetylcholine receptor that mediates vessel relaxation upon stimulation with acetylcholine is the muscarinic acetylcholine receptor subtype M3 (M3R). In the present study NOSTRIN was identified as novel interaction partner of the M3R and important factor for the correct spatial distribution and functionality of the M3R. Moreover, it provides the first example of an F-BAR protein regulating a GPCR. Confocal immunofluorescence microscopy analysis of isolated aortae from NOSTRIN KO and WT mice indicated that NOSTRIN was necessary for the proper subcellular localization of the M3R and targeted it to the plasma membrane. A series of pulldown experiments revealed a direct interaction of NOSTRIN with the M3R. The binding required the SH3 domain of NOSTRIN and the third intracellular loop of the M3R, which has a recognized role in receptor regulation. The interaction of NOSTRIN with the M3R was confirmed by co-localization of NOSTRIN and the M3R upon overexpression in mammalian cells. Expression levels of the M3R as well as eNOS were not affected by the loss of NOSTRIN in accordance with the finding, that NOSTRIN impacts on the acetylcholine/eNOS signaling axis through regulation of the subcellular trafficking of its binding partners.
Furthermore, there were first indications for a role of NOSTRIN in facilitating the carbachol-induced calcium response in M3R-expressing cells, suggesting that NOSTRIN might influence M3R activation. in the absence of NOSTRIN, the function of the M3R in mammalian cells overexpressing the M3R was markedly impaired, resulting in abolition of the calcium response to the M3R agonist carbachol. In accordance, the activated eNOS fraction associated with the Golgi complex was markedly reduced in aorta explants from NOSTRIN knockout and ECKO mice. Moreover, NOSTRIN knockout inhibited the carbachol-induced, activating phosphorylation of eNOS in murine aortae as well as primary mouse lung endothelial cells confirming its role as important regulator of eNOS activity in vivo.
Mit dem Stichwort "Materialanalyse" tritt ins Blickfeld, was Walter Benjamin als ein "zentrales Problem des historischen Materialismus" bezeichnet hat: "auf welchem Wege es möglich ist, gesteigerte Anschaulichkeit mit der Durchführung der marxistischen Methode zu verbinden". Die Frage betrifft die Beziehungen von Philologie, geschichtlicher Erfahrung und materialistischer Dialektik im Zusammenhang einer Geschichtsschreibung, der es nicht, wie der konservativen Hermeneutik, um das "Einrücken in ein Überlieferungsgeschehen" geht, sondern darum, das "Kontinuum der Geschichte aufzusprengen. Dass die marxistische Methode auf jene 'Beschaulichkeit' verzichten muss, die 'für' Benjamin das Verfahren des Historismus kennzeichnet, gründet in der von Friedrich Engels ausgegebenen Maxime, wonach die dialektische Darstellung den "Schein einer selbständigen Geschichte [...] der ideologischen Vorstellungen " aufzulösen habe, indem sie den "vom Denken unabhängigen Ursprung" zu ihrem Ausgangspunkt macht. Für Benjamin ist ihr Prinzip kein 'episches', sondern das der Montage. Sie ermöglicht, "die großen Konstruktionen aus kleinsten, scharf und schneidend konfektionierten Baugliedern zu errichten", um "durch Analyse des kleinen Einzelmoments" den "Kristall des Totalgeschehens" sichtbar werden zu lassen. Das Verfahren, das auch im apokryphen Materialgesellschaftliche Einsichten zu gewinnen sucht, verlangt nach einer aktiven Lektüre, die weniger 'auslegt' als 'übersetzt' und also den Text nicht unverändert lässt. Die Materialanalyse geht nicht aus von einem abstrakten Allgemeinbegriff, unter dem die Einzeldinge zum 'Spezialfall' herabsinken. Sie verlangt vielmehr, wie Theodor W. Adorno von der Dialektik fordert, die "Einlösung des Anspruchs der besonderen spezifischen Erkenntnis auf ihre Allgemeinheit". Ihren Namen, der in Studienprojekten des Argument-Verlags Ende der 1970er Jahre programmatisch wird, rechtfertigt die Materialanalyse da, wo das geschichtliche Material und eine am Begriff des Gegenstands selbst gebildete Reflexion sich zusammenschließen. Gefordert ist daher eine philosophische Arbeit, wie sie in marxistischer Tradition vor allem von Walter Benjamin und Antonio Gramsci ins Werk gesetzt worden ist. Die Materialanalyse setzt kein 'System' oder einen 'Entwurf' voraus, sondern schöpft aus der Kritik und dem Kommentar von Texten, prototypisch durchgeführt in der marxschen Kritik der politischen Ökonomie. Sie verlangt eine Kunst des Zitierens, wie sie sich im 'Passagen-Werk' von Benjamin ähnlich wie in den 'Gefängnisheften' Gramscis vorgebildet findet. Ihre Verfasser "haben vorgemacht, wie aus Zitaten ein Text aufgebaut werden kann, der den Ursprungstexten nie in den Sinn gekommen wäre". Das Feststellen der "Einzeltatsachen in ihrer unverwechselbaren 'Individualität'" gilt dabei als eine unhintergehbare Voraussetzung 'für die Schaffung einer' "lebendigen Philologie", die ihr Material analytisch zu durchdringen versteht.
In den Jahren um 1900 explodiert in Deutschland die sprachwissenschaftliche und sprachtheoretische 'Szene'. Alles, was in den nationalphilologischen Synthesen des 19. Jahrhunderts keinen Platz finden konnte, drängt spätestens jetzt zurück in das Licht der akademischen Öffentlichkeit. Nicht oder kaum akademisierte Unterströmungen wie die Sprachpsychologie, die Schulgrammatik, die Semantik, die Semiotik machen von sich reden. Bei weitem nicht alles wirkt dann tatsächlich auf die akademische Sprachwissenschaft. Diese sprachwissenschaftliche 'Überfülle' ist erst gebändigt worden in der Rezeption des kanonischen 'Cours de linguistique générale' Saussures, die einigermaßen erfolgreich den "eigentlichen" Gegenstand der Sprachwissenschaft als 'langue', als synchronisch zu fassendes einzelsprachliches Zeichensystem, zu fixieren suchte. All das ist historiographisch gut erforscht. Su gut wie überhaupt nicht im Blick der Historiographen ist hingegen die ebenfalls um 1900 erstmals erscheinende sprachwissenschaftliche Problemlinie, die später zu einer ebenfalls wirkmächtigen soziologisch-kommunikativen Sprachauffassung hinführt. Gute und gründliche Arbeiten gibt es zwar zur Vor- und Frühgeschichte der "Pragmatik", aber kaum untersucht ist die Vorgeschichte dessen, was heute entweder politische Begriffsgeschichte, Diskursanalyse oder Politolinguistik heißt. Das hängt gewiss damit zusammen, dass in Diskursanalyse und Begriffsgeschichte keineswegs nur (noch nicht einmal hauptsächlich) sprachwissenschaftliche Traditionen zusammenlaufen, sondern eben auch soziologische, politologische, philosophische. Ein bloßer Vortrag, versteht sich, kann diese Lücke nicht füllen. Ich will gleichwohl versuchen, wenigstens einen Strang aus dem einschlägigen problemgeschichtlichen Bündel zu ziehen - und der beginnt mit Karl Otto Erdmann.
Die stetig wachsende Menge an digital verfügbarem, zeitgenössischem wie historischem Textmaterial bietet für die begriffsgeschichtliche Forschung Chancen und Herausforderungen: Während die fortschreitende Digitalisierung die Verfügbarkeit erforschbaren Materials deutlich erhöht, resultiert aus der verbesserten Auffindbarkeit potentieller Quellen eine schwindende Übersicht dessen, was für begriffsgeschichtliche Studien überhaupt in Betracht zu ziehen ist. Am Beispiel der Begriffe Netz, Netzwerk und Vernetzung erproben wir quantitative, semi-automatische Ansätze für eine digitale Begriffsgeschichte. Dafür identifizieren wir zunächst die Beschränkungen des Tools Google Ngrams, das weder für die Analyse von Wortbedeutungen noch für die Bestimmung der Kontexte von Wortverwendungen geeignet ist. Demgegenüber erörtern wir die Vorzüge einer hier erstmals im Kontext begriffsgeschichtlicher Forschung vorgestellten Methode der vorwissensfreien Bedeutungsinduktion, die semantische Aspekte gesuchter Begriffsworte automatisch ermittelt, deren typische und untypische Verwendungskontexte aggregiert, Wortfelder kartiert und durch einen geeigneten Index die Möglichkeit bietet, Belegstellen zu betrachten sowie die Veränderung von Wortbedeutungen im Laufe eines gegebenen Zeitraums zu analysieren. Mittels dieser interaktiven, semi-automatischen Methode lässt sich für den deutschen Sprachraum nachweisen, dass sich zu Beginn des 21. Jahrhunderts ein Problemdiskurs über Netzwerke entwickelt, mit dem sich ein Wandel der Semantik des Begriffswortes erklären lässt. Mit dem vorgestellten Verfahren lässt sich auch die Bedeutung komplexer metaphorischer Prozesse für den zu erklärenden Begriffswandel erschließen.
Semantische Kämpfe gehören zum Alltag, die Gegenwart ist geradezu erfüllt von ihnen, denn "Herrschaft und Macht werden auch über Semantik ausgeübt". Man möchte deshalb meinen, dass sie einfach zum Sprachgebrauch gehören und seit jeher unsere verbalen Auseinandersetzungen begleiten. Ob das richtig ist, kann und soll hier gar nicht untersucht werden, Historiker sind dafür eher ungeeignet. Seit wann sie aber in unser Bewusstsein getreten sind und weshalb, ist eine Frage, zu der die Begriffsgeschichte durchaus etwas beizutragen hat. Es verdient darum Interesse, den weit über Deutschland hinaus bekannten Historiker der Ideen und Begriffe, den 2006 verstorbenen Reinhart Koselleck, auf seinem Weg vom hochgradig ideologisierten Konzept semantischer Kämpfe zur radikal historisierten Begriffsgeschichte zu begleiten, weil einige seiner dabei gemachten Einsichten ganz allgemein zu verstehen helfen, wie in Europa sprachlich die Moderne entstand und welchen Verlauf sie genommen hat.
Rahel Jaeggi und Tilo Wesche erstellen im Sammelband 'Was ist Kritik?' eine präzise Kartographie der historischen Hauptbedeutungen dieses Begriffes, wobei sie vier Formen unterscheiden: 1) Aufklärung oder Zeitalter der Kritik, 2) historische Kritik, 3) emanzipatorische Kritik oder intellektuelle Tugend und 4) philosophische Kritik. Alle vier Formen sind mit eigenen Nuancen im Werk von Reinhart Koselleck zu finden, der, wie bekannt, nicht im Bann der sogenannten Frankfurter Schule stand. Er hat sich mit der 'Aufklärung als Zeitalter der Kritik' auseinandergesetzt und sogar von der "Dialektik der Aufklärung" gesprochen, genauer gesagt von der Dialektik von Politik und Moral in der Neuzeit. In Form einer Metakritik bzw. einer "Aufklärung über die Aufklärung" unterzog er deren ideologische Pervertierung der Moral einer bissigen Kritik. Koselleck meinte, diese perfide Dialektik, die moralisierende Politik, sei nicht obsolet geworden, sondern sie habe zu den Weltanschauungskriegen des 20. Jahrhunderts geführt. Er kultivierte keine moralische Enthaltung oder Abstinenz, aber er war mit den Exzessen des Moralismus vertraut und misstraute ihnen deshalb.
'Die Zukunft kommt von selbst - der Fortschritt nur mit uns' war das Motto eines SPD-Parteitages im Jahr 1988 in Münster. Dieses Motto verrät nicht nur etwas darüber, wie der Begriff des Fortschritts interpretiert wurde (dass Fortschritt nämlich im Unterschied zur Zukunft nicht automatisch eintritt, sondern politisch 'gemacht' werden muss und dass er, im Gegensatz zur unbestimmten Zukunft, kommen 'soll'), sondern zeigt vor allem, dass gerade dieser Begriff und der mit ihm verbundene politische Gestaltungsanspruch als wesentliches Distinktionsmerkmal zum politischen Gegner herausgestellt wurde. Die Beschlüsse, die 2016 auf dem Parteikonvent der SPD gefasst wurden, standen unter dem Motto 'Fortschritt und Gerechtigkeit'. Dieses Begriffspaar, so erklärte der Bundesvorsitzende Sigmar Gabriel, sei die "Seele der Partei". Die Selbstbeschreibung als Partei des Fortschritts vereinfacht aber die Sache. Wie gezeigt werden soll, hat die Rede über Fortschritt in der Sozialdemokratie eine wechselvolle und ambivalente Geschichte, angesichts derer der heutige, recht ungebrochene Bezug auf das Schlagwort Fortschritt doch ein wenig überrascht. Der Geschichte des Fortschrittsbegriffs in der deutschen Sozialdemokratie soll im Folgenden in einigen wichtigen Momenten durch eine Untersuchung der Programmtexte nachgegangen werden. Dazu wurde auch auf die Methoden der digitalen Korpusanalyse zurückgegriffen. Der Schwerpunkt liegt in diesem Beitrag auf der Herausbildung und der Erosion der 'klassischen' Prägung des Fortschrittsbegriffs in der SPD in der Bundesrepublik. Er wurde nach der Neuausrichtung der SPD beim Parteitag in Bad Godesberg 1959 in besonderer Weise mit benachbarten Kategorien gekoppelt und hat so die grundlegende politische Zielsetzung und das Selbstbild der Partei nachhaltig geprägt.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
"Wellenformen" : die Leistung mathematischer Modellbildung für Akustik, Physiologie und Musiktheorie
(2016)
Im Jahr 1857 hält Hermann von Helmholtz einen Vortrag 'Ueber die physiologischen Ursachen der musikalischen Harmonien', in dem er erstmals Ergebnisse seiner akustischen und hörphysiologischen Forschungen einer akademischen Öffentlichkeit vorstellt. Dabei bilden die Untersuchungen und Experimente, die Helmholtz im Rahmen seiner Tätigkeit als Professor für Anatomie und Physiologie an der Universität Bonn durchgeführt hat, Grundlage und Ausgangspunkt einer umfassenden Neukonstitution von Wissenszusammenhängen, in deren Zuge ältere Wissensbestände arrondiert, im Lichte neuer Erkenntnisse bewertet, erweitert, neu gefasst und in ausgearbeiteter Form sechs Jahre später unter dem Titel 'Die Lehre von den Tonempfindungen' veröffentlicht werden. In den einleitenden Worten seines Vortrages aus dem Jahr 1857 verweist Helmholtz in diesem Kontext auf einen Aspekt, der ihm offenkundig von großer Signifikanz zu sein scheint:
"Es hat mich immer als ein wunderbares und besonders interessantes Geheimnis angezogen, dass gerade in der Lehre von den Tönen, in den physikalischen und technischen Fundamenten der Musik, die unter allen Künsten in ihrer Wirkung auf das Gemüth als die stoffloseste, flüchtigste und zarteste Urheberin unberechenbarer und unbeschreiblicher Stimmungen erscheint, die Wissenschaft des reinsten und consequentesten Denkens, die Mathematik, sich so fruchtbar erwies."
Bemerkenswert an dieser Aussage ist nicht, dass Musik und Mathematik in eine enge Beziehung zueinander gesetzt werden - hier kann Helmholtz auf eine über zweitausendjährige Tradition der wechselseitigen Elaboration beider Bereiche verweisen -, sondern dass Darlegungen, die auf die systematische Durchdringung der Zusammenhänge zwischen akustischen, physiologischen, psychischen, musiktheoretischen und ästhetischen Phänomenbereichen zielen, ihren Ausgangspunkt in der Mathematik nehmen. Diesen Leistungen, die mathematisches Denken für die Untersuchung und Explikation dieser Zusammenhänge erbringt, möchte der folgende Beitrag nachgehen. Es wird sich zeigen, dass eine spezifische mathematische Operation für das Verständnis von akustischen und physiologischen Prozessen modellbildend wirkt und über verschiedene Applikationswege hinweg neue Impulse der Systematisierung von Wissensbeständen setzt.
Klima wird in der industriellen Moderne zum Problem des Wissens. Anders als das Wetter ist das Klima der direkten Wahrnehmung entzogen; ein Umstand, der paradoxerweise immer problematischer zu werden scheint, je mehr Wissen über die komplexen Zusammenhänge von lokalen Wetterereignissen und globalem Klima existiert. Das moderne Klima ist ein wandelbares, globales Phänomen, dessen Erkenntnis doppelt vermittelt ist, insofern es weder sinnlich erfahrbar noch verstandesmäßig erfassbar und somit auf Modellierung angewiesen ist. Diese findet jedoch nicht allein im wissenschaftlichen Kontext statt. Vielmehr ist die Herstellung von Klima als Bedingung von (Lebens-)Wirklichkeit und Zukunft trotz ihres unterschiedlichen epistemischen Status das Ergebnis wechselseitiger Einflussnahme wissenschaftlicher und nicht-wissenschaftlicher Modelle.
Das Ziel dieser Arbeit ist die Entwicklung von neuen, experimentellen Ansätzen zur Thematisierung von Siliciumverbindungen im Chemieunterricht, die einen deutlichen lebensweltlichen Bezug aufweisen und moderne Entwicklungen berücksichtigen.
Die Bandbreite der Siliciumverbindungen reicht von den Silicaten im Bereich der Anorganik über elementares Silicium bis hin zu den polymeren Siliconen im Grenzbereich zu der Organik. Diese
große Vielfalt an Verbindungen hat eine Vielzahl von Anwendungen in tagtäglichen Produkten zur Folge. Dies sind einerseits relativ bekannte anorganische Baustoffe, wie Zement oder Sand, die schon seit der Antike von der Menschheit genutzt werden. Andererseits werden kontinuierlich neue Anwendungsmöglichkeiten in Alltag und Industrie für Siliciumverbindungen entwickelt, die in der modernen Lebenswelt der SchülerInnen einen festen Platz haben.
Oft ist das Vorhandensein der Siliciumverbindung gar nicht auf den ersten Blick erkennbar, obwohl sie die Eigenschaften eines Alltagsprodukts maßgeblich beeinflussen kann. Dies ist beispielsweise bei Silica-Verbindungen in der Zahncreme der Fall.
Im Chemieunterricht werden, wenn überhaupt, die „traditionellen“ Verwendungszwecke, wie in der Baustoffchemie, thematisiert, weniger dagegen die Funktion von Siliciumverbindungen in innovativen Produkten neueren Datums. Nur zögerlich werden Ansätze zur Thematisierung von Verbindungen, wie Siliconen, im Chemieunterricht etabliert.
Im Rahmen dieser Forschungsarbeit wurden daher auf der Grundlage einer fachdidaktischen Analyse und Diskussion Experimente zu ausgewählten Siliciumverbindungen entwickelt. Dies sind die Silicone, die Silica-Verbindungen und elementares Silicium. Die Experimente lassen sich größtenteils in der Sekundarstufe II in Anlehnung an verbindlich im Lehrplan thematisierte Inhalte in den Unterricht einbinden. Einige Experimente können nach einer angemessenen didaktischen Reduktion auch bereits in der Sekundarstufe I eingesetzt werden.
Die im Rahmen dieser Arbeit entwickelten Experimente wurden von LehrerInnen und SchülerInnen gleichermaßen erprobt. Es wurden Rückmeldungen zur Versuchen und Versuchsvorschriften eingeholt. Die Ergebnisse der Auswertung wurden zur Optimierung herangezogen.
In this paper we propose a way forward towards increased financial resilience in times of growing disagreement concerning open borders, free trade and global regulatory standards. In light of these concerns, financial resilience remains a highly valued policy objective. We wish to contribute by suggesting an agenda of concrete, do-able steps supporting an enhanced level of resilience, combined with a deeper understanding of its relevance in the public domain.
First, remove inconsistencies across regulatory rules and territorial regimes, and ensure their credibility concerning implementation. Second, discourage the use of financial regulatory standards as means of international competition. Third, give more weight to pedagogically explaining the established regulatory standards in public, to strengthen their societal backing.
Die vorliegende Arbeit beschäftigt sich mit der vergleichenden funktionalen Charakterisierung der E.coli Transporter LacY, FucP und XylE und des Glucose-Transporters GlcP aus Staphylococcus epidermidis sowie funktionsrelevanter Mutanten. Sie katalysieren in vivo den PMF-gekoppelten Zuckertransport und repräsentieren die major facilitator superfamily (MFS), einer der größten Transporter-Familien überhaupt. Die Studien wurden mithilfe einer elektrophysiologischen Methode auf Basis Festkörper-unterstützter Membranen (SSM) durchgeführt. Komplementär dazu wurden radioaktive Transportassays, fluorometrische Messungen, kinetische Simulationen und theoretische Berechnungen auf Basis der 3D-Strukturen durchgeführt. Experimentell bestimmte Zucker- und pH-Abhängigkeiten elektrogener steady-state und pre steady-state Reaktionen wurden verwendet, um ein allgemeingültiges kinetisches Modell aufzustellen.
Insgesamt konnten bei allen Transportern zwei elementare elektrogene Reaktionen identifiziert werden. Eine schnelle Zucker-induzierte Konformationsänderung wurde dem induced fit des Zuckermoleküls zugeordnet. Die Elektrogenität im steady-state wird dagegen durch den langsamen Transfer der negativ geladenen Protonenbindestelle bestimmt. Die für den Symport ratenlimitierende Reaktion ist abhängig von den äußeren Bedingungen wie pH-Werten, Zuckerkonzentrationen, Substrat-Spezies und Membranpotential meist die Konformationsänderung des leeren (P) oder des beladenen (PSH) Carriers, welche die Substratbindestellen im Zuge des Alternating Access über die Membran transferieren. Ein Wechsel zwischen hohen Protonenbindungs-pK-Werten und niedrigen Protonenfreisetzungs-pK-Werten durch weitere lokale Konformationsänderungen ist zentraler Bestandteil des Transportmechanismus. Ein weiterer wichtiger Aspekt ist die Kopplung zwischen Zucker- und Protonen-Translokation, die sich zwischen E.coli Transportern und GlcP strikt unterscheidet. In E.coli Transportern erfolgt eine kooperative Bindung von Zucker und Proton. Zudem erfolgt keine Konformationsänderung im Zucker-gebundenen, unprotonierten Carrier (PS). In GlcP ist die Kopplung erheblich reduziert. Der Transport-Modus selbst ist abhängig von den äußeren Bedingungen. So katalysiert GlcP abhängig vom pH-Gradienten Uniport, Symport oder Antiport.
Die vorliegende Arbeit leistet einen wichtigen Beitrag zum Verständnis des PMF-gekoppelten Zuckertransports und zeigt die Grenzen des für LacY formulierten 6-Zustands-Modells mit nur zwei Konformationsänderungen auf. Ein erweitertes 8-Zustands-Modell mit vier Konformationsänderungen, die unterschiedliche Ratenkonstanten aufweisen können, erklärt sowohl Symport, Antiport als auch Uniport und berücksichtigt zudem die zahlreichen Ergebnisse für LacY aus der Literatur.
Die Berichterstattung über den Nahostkonflikt gehört seit Jahrzehnten zum Standardrepertoire der Nachrichten. Hierzulande hat fast jeder eine Meinung zum israelisch-arabischen Konflikt, doch wenige verstehen, um was es den Konfliktparteien eigentlich geht, was in bisherigen Verhandlungen erreicht worden ist und wo genau die Hürden für eine Konfliktregelung liegen. Dieses Buch liefert eine kompakte und zugleich anschauliche und detaillierte Analyse des Konflikts zwischen Israel und seinen arabischen Nachbarn. Dabei stehen die lokalen und regionalen Akteure im Mittelpunkt. Um die Konfliktdynamiken zu erklären, geht das Buch vor allem auf die konkurrierenden Interessen und Narrative der Konfliktparteien sowie ihre Wechselwirkungen ein.
Der vorliegende Aufsatz befasst sich mit temporalen Uneindeutigkeiten ökonomischer Modellierungen, die einem Ansatz zugerechnet werden, der in der Wissenschaftsgeschichte der Ökonomik als 'Neoklassik' thematisiert wird und seit den 1870er Jahren vorgebracht wurde. Die Neoklassik hat sich als enorm einflussreich in der Wirtschaftswissenschaft erwiesen; sie liegt beispielsweise der seit der zweiten Hälfte des 20. Jahrhunderts zunehmende Eigenständigkeit erlangenden Finanztheorie ('Finance') zugrunde und informierte auch die in den 1970er Jahren erstarkende Bewegung, makroökonomische Modellierungen auf Tauschvorgänge zurückzuführen, die sich auf der Mikroebene, d. h. zwischen einzelnen ökonomischen Akteuren (Arbeitern, Firmen, Haushalten etc.) abspielen.
Zu den nachhaltigsten Prägungen des architektonischen Entwerfens gehört das vereinfachte Idealszenario, wonach der Prozess der Theorie- und Formbildung eine Kette von Modellierungsstufen sei, die vom Großen zum Kleinen, vom städtebaulichen Entwurf zur baukonstruktiven Detailplanung führen. Nach diesem Szenario steht am Anfang jeder Modellierungsphase eine architektonische Hypothese mit ihrem je spezifischen Gegenstandsversprechen. Als letzte Modellierungsstufe am Ende der Kette liegt das konkrete Bauwerk im Eins-zu-eins-Maßstab vor. Jede Stufe wird in maßstabsgetreuen Zeichnungen und Modellen entwickelt, die ihre Qualität aus der Entsprechung zum späteren Bauwerk gewinnen. In jeder Phase hat der Architekt die Möglichkeit, das bisher Modellierte durch Anschauung zu überprüfen, weiter auszuarbeiten oder zu verwerfen. Auf diese Weise wird der Entwurf von einer Stufe auf die nächste überführt. Das computerbasierte Modellieren scheint diese Idealkette entwurflicher Operationen zu unterbrechen. Unter Zuhilfenahme von 3D-Modellierungssoftware entwickelt der Architekt seinen Entwurf weniger in aufeinander aufbauenden Stufen als vielmehr in einer einzigen Stufe, die theoretisch alle anderen Stufen beinhaltet. Die erdachte Architektur wird nicht in abstrahierenden, voneinander getrennten Zeichnungen dargestellt, sondern in einem einzigen, zweidimensional wiedergegebenen 3D-Modell visualisiert. Digitale Prozessketten heben die tradierte Trennung zwischen intellektuellem Entwurfsakt und materieller Ausführung auf. Während im Analogen die architektonischen Entwurfszeichnungen zunächst in Ausführungspläne und anschließend von den am Bau beteiligten Gewerken in Werkstattpläne transformiert werden, sind im Digitalen Entwurf und Ausführung eng miteinander verschränkt. Die Produktionstechnologien greifen unmittelbar in die Entwurfsverfahren ein: Bei dem 'file to factory' genannten Modellierungsverfahren werden geometrische und technologische Informationen in einem Datenmodell zusammengefasst, das unter Zuhilfenahme computergesteuerter Fertigungsmaschinen (u. a. 3D-Drucker) in ein physisches Modell oder ein Bauteil umgesetzt wird.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.
Das Ziel des Beitrags besteht darin, jene Formelideale in der Mathematik und in der Ökonomik zu identifizieren, um anschließend Überlegungen darüber anzustellen, auf welche Art und Weise diese Ideale den logischen Spielraum der Problemlösung erweitern oder einengen. Ganz entscheidend hierfür ist das Verhältnis von Internalitäten und Externalitäten; also ob bzw. welche Umweltbezüge in der Formelsprache eingeschlossen oder ausgeschlossen werden. Die Analyse erfolgt aus wissenssoziologischer Perspektive, die die mathematische, mit Blick auf die Ökonomik vorsichtiger formuliert: die pseudo-mathematische Formelsprache als eine spezifische Semantik versteht. Hierbei handelt es sich nicht nur um eine Semantik, die sich der durch die gesellschaftliche Differenzierung ausgelösten Komplexitätssteigerung anpasst. Die Evolution der mathematischen und wirtschaftswissenschaftlichen Semantik befolgt zudem, so meine These, paradigmatische Ideale, die in den spezifischen Disziplinen angelegt sind. Dies spiegelt sich in der Art und Weise wider, wie in den jeweiligen Disziplinen auf mathematisch-kalkulatorischer Modellebene einerseits eine Geschlossenheit und Binnenreferenzialität des Formelhorizonts und andererseits eine Projektionsfläche für die Entdeckung von Zusammenhängen und das Auffinden formaler Muster generiert wird. Die Ausgangsannahme im Hinblick auf die Ökonomik ist, dass auch die Operationsweise ökonomischer Modelle, insofern sie auf mathematischer Grundlage gebildet werden, auf einer Binnenreferenzialität beruht. Die Stringenz solcher Modellierungen wird gerade deswegen zum vorherrschenden Gütekriterium, weil sie nicht nur jegliche Externalitäten im Sinne einer Irritation des formalen Modells ausschließt, sondern zugleich Beobachtungseffekte durch Sinnüberschüsse ermöglicht, die durch eine Entdeckung formaler Muster aktualisiert werden. Im ersten Schritt wird hierzu das Formelideal der reinen Mathematik auf der Grundlage wissenssoziologischer Überlegungen und mathematischer Selbstreflexionen herausgearbeitet. Daran anschließend wird das Formelideal pseudo-mathematischer Modelle in der Ökonomik untersucht. Die Basis bilden vor allem William Stanley Jevons' und Alfred Marshalls wegweisende Überlegungen zur Mathematisierung der Ökonomik. Die Beobachtungen werden abschließend auf den Aspekt des Erweiterns oder Einengens des logischen Spielraums zur Problemlösung in der Mathematik und der Ökonomik hin zugespitzt.
Die naturwissenschaftlichen Diskurse des 19. Jahrhunderts sprachen neben den 'Bildern' von einer ganzen Reihe weiterer Dinge, welche Wissensgegenstände repräsentieren konnten, auch ohne Modelle im damaligen Sinn zu sein. Weite Verbreitung fanden im 19. Jahrhundert in dieser Funktion insbesondere die Begriffe der 'Analogien', 'Interpretationen' und der 'Systeme' von wirklichen oder gedachten Dingen. Die Beispiele, die mit solchen Begriffen verbunden waren, sind häufig für die Wissenschaftsentwicklung von substanzieller Bedeutung gewesen. Sie stehen aber, wie ich im Folgenden andeuten möchte, für ganz unterschiedliche Formen und Funktionen der abstrakten Repräsentation. Den Begriff 'abstrakte Repräsentation' verwende ich hierbei etwas vage und naiv als schlichten Oberbegriff für verschiedene Weisen, einen Komplex von wissenschaftlich interessierenden Dingen oder Sachverhalten durch etwas anderes darzustellen und für die wissenschaftliche Praxis zu thematisieren, ohne dabei auf materielle, anfassbare Dinge zurückzugreifen, wie dies die 'Modelle' in der Sprache des 19. Jahrhunderts taten. Zugleich soll dadurch ('pace' Wittgenstein und unangesehen der inflationären Verwendung des Modellbegriffs seit Mitte des 20. Jahrhunderts) vermieden werden, vorschnell von einem 'Denken in Modellen' zu reden. Wir werden noch sehen, dass die in Rede stehenden, abstrakten Repräsentationen bisweilen sehr konkrete epistemische Funktionen hatten. Das Wort 'abstrakt' sollte hier also nicht überbewertet werden. Insbesondere möchte ich im Folgenden jeweils die spezifische 'epistemische Situation' charakterisieren, d.h. die Besonderheiten der Wissensumstände, in welchen der Rückgriff auf eine Form der abstrakten Repräsentation geschah und den Beteiligten vielversprechend erschien.
Es ist ein Gegenstand andauernder Diskussionen, wie der Strukturalismus, der im Werk von Claude Lévi-Strauss vielleicht seine aufregendste und theoretisch ambitionierteste Ausprägung gefunden hat, sich zum Modell verhält. Während Marcel Hénaff betont hat, dass der Strukturalismus von Lévi-Strauss ohne eine Klärung des Modell-Begriffs kaum verstanden werden könne, hat Robert Matthias Erdbeer am Beispiel des französischen Ethnologen zuletzt das Fehlen einer strukturalistischen Modelltheorie beklagt: "Man kann hier einen echten Theorieverlust, ja Theorieverzicht beklagen, wenn man konstatiert, dass am Beginn der strukturalen Theoriebildung nicht die Strukturen stehen, sondern das Modell. Modelle, so die überraschende Erkenntnis, sind das epistemische Arkanum, das verdeckte Andere des strukturalen Theoriedesigns." Aus der Perspektive der Modelltheorie literarischer Texte, die Erdbeer in hoch anregender Weise ausgearbeitet hat, ist diese Diagnose nachvollziehbar. Jedoch sollte sie nicht in den Hintergrund geraten lassen, dass der Modell-Begriff von Lévi-Strauss, so ungenügend er sich zur Lösung aktueller theoretischer Fragestellungen erweisen mag, aus historischer Sicht überaus aufschlussreich ist, ja dass er gerade auch in seinen Unschärfen, Schwierigkeiten und Dunkelheiten Auskunft darüber gibt, wie sich die strukturale Analyse im wissenschaftlichen Feld ihrer Zeit positioniert und an welche wissenschaftlichen Traditionen sie anschließt. In den folgenden Ausführungen wird der Modell-Begriff bei Lévi-Strauss deshalb noch einmal in den Blick genommen. Im Anschluss an Hénaff soll dabei vor allem an zwei Diskussionsfeldern gezeigt werden, dass die Auseinandersetzung mit Modellen insofern ins Herz der strukturalen Analyse führt, als Lévi-Strauss Modelle sowohl von der Struktur als auch von den konkreten Ereignissen her denkt und sie immer wieder als Vermittler von Struktur und Ereignis positioniert. Hierfür wird zunächst rekonstruiert, wie Lévi-Strauss das Modell im Zusammenhang von Reflexionen zur Ethnologie und deren Rolle im Gefüge der Wissenschaften behandelt - in den Mittelpunkt werden dabei die Begriffe des 'mechanischen Modells' und des 'statistischen Modells' rücken. Danach wird betrachtet, wie er das Modell in das 'Das wilde Denken' ins Zentrum seiner ästhetischen Theorie stellt und die Kunst hier als 'verkleinertes Modell' konzipiert, bevor abschließend zumindest umrissen werden soll, in welche wissenschaftliche Tradition sich Lévi-Strauss mit seinen Erörterungen zu Modellen stellt.