Refine
Year of publication
Document Type
- Article (30731)
- Part of Periodical (11922)
- Book (8312)
- Doctoral Thesis (5734)
- Part of a Book (3721)
- Working Paper (3388)
- Review (2878)
- Contribution to a Periodical (2369)
- Preprint (2200)
- Report (1544)
Language
- German (42597)
- English (29553)
- French (1067)
- Portuguese (723)
- Multiple languages (314)
- Croatian (302)
- Spanish (301)
- Italian (195)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (75699) (remove)
Keywords
- Deutsch (1038)
- Literatur (809)
- taxonomy (766)
- Deutschland (543)
- Rezension (491)
- new species (453)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Übersetzung (271)
Institute
- Medizin (7767)
- Präsidium (5228)
- Physik (4543)
- Wirtschaftswissenschaften (2710)
- Extern (2661)
- Gesellschaftswissenschaften (2378)
- Biowissenschaften (2195)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1775)
- Center for Financial Studies (CFS) (1632)
The effect-response framework states that plant functional traits link the abiotic environment to ecosystem functioning. One ecosystem property is the body size of the animals living in the system, which is assumed to depend on temperature or resource availability, among others. For primary consumers, resource availability may directly be related to plant traits, while for secondary consumers the relationship is indirect. We used plant traits to describe resource availability along an elevational gradient on Mount Kilimanjaro, Tanzania. Using structural equation models, we determined the response of plant traits to changes in precipitation, temperature and disturbance with and assessed whether abiotic conditions or community-weighted means of plant traits are stronger predictors of the mean size of bees, moths, frugivorous birds, and insectivorous birds. Traits indicating tissue density and nutrient content strongly responded to variations in precipitation, temperature and disturbance. They had direct effects on pollination and fruit traits. However, the average body sizes of the animal groups considered could only be explained by temperature and habitat structure, not by plant traits. Our results demonstrate a strong link between traits and the abiotic environment, but suggest that temperature is the most relevant predictor of mean animal body size. Community-weighted means of plant traits and body sizes appear unsuitable to capture the complexity of plant-animal interactions.
Clustering of cardiovascular risk factors and carotid intima-media thickness : the USE-IMT study
(2017)
Background: The relation of a single risk factor with atherosclerosis is established. Clinically we know of risk factor clustering within individuals. Yet, studies into the magnitude of the relation of risk factor clusters with atherosclerosis are limited. Here, we assessed that relation.
Methods: Individual participant data from 14 cohorts, involving 59,025 individuals were used in this cross-sectional analysis. We made 15 clusters of four risk factors (current smoking, overweight, elevated blood pressure, elevated total cholesterol). Multilevel age and sex adjusted linear regression models were applied to estimate mean differences in common carotid intima-media thickness (CIMT) between clusters using those without any of the four risk factors as reference group.
Results: Compared to the reference, those with 1, 2, 3 or 4 risk factors had a significantly higher common CIMT: mean difference of 0.026 mm, 0.052 mm, 0.074 mm and 0.114 mm, respectively. These findings were the same in men and in women, and across ethnic groups. Within each risk factor cluster (1, 2, 3 risk factors), groups with elevated blood pressure had the largest CIMT and those with elevated cholesterol the lowest CIMT, a pattern similar for men and women.
Conclusion: Clusters of risk factors relate to increased common CIMT in a graded manner, similar in men, women and across race-ethnic groups. Some clusters seemed more atherogenic than others. Our findings support the notion that cardiovascular prevention should focus on sets of risk factors rather than individual levels alone, but may prioritize within clusters.
The widespread application of fertilizers has greatly influenced many processes and properties of agroecosystems, and agricultural fertilization is expected to increase even further in the future. To date, most research on fertilizer impacts has used short-term studies, which may be unrepresentative of long-term responses, thus hindering our capacity to predict long-term impacts. Here, we examined the effects of long-term fertilizer addition on key ecosystem properties in a long-term grassland experiment (Palace Leas Hay Meadow) in which farmyard manure (FYM) and inorganic fertilizer treatments have been applied consistently for 120 years in order to characterize the experimental site more fully and compare ecosystem responses with those observed at other long-term and short-term experiments. FYM inputs increased soil organic carbon (SOC) stocks, hay yield, nutrient availability and acted as a buffer against soil acidification (>pH 5). In contrast, N-containing inorganic fertilizers strongly acidified the soil (<pH 4.5) and increased surface SOC stocks by increasing the C stored in the coarse (2.8 mm-200 μm) and fine (200–50 μm) fractions. Application of N fertilizers also reduced plant species richness and the abundance of forbs and legumes. Overall, our results were broadly consistent with those observed in other very long-term studies (the Park Grass and Steinach Grassland experiments) in that fertilization effects on plant and soil properties appeared to be driven by differences in both nutrient input and changes to soil pH. We also established that the direction of long-term fertilization effects tended to be comparable with short-term experiments, but that their magnitude differed considerably, particularly where ammonium sulphate-induced acidification had occurred. We therefore conclude that short-term studies are unlikely to possess the required timeframe to accurately predict long-term responses, thus necessitating the use of long-term study sites. Such experiments should be strategically established in regions where future fertilizer use is expected to increase rapidly.
Bank regulators have the discretion to discipline banks by executing enforcement actions to ensure that banks correct deficiencies regarding safe and sound banking principles. We
highlight the trade-offs regarding the execution of enforcement actions for financial stability. Following this we provide an overview of the differences in the legal framework governing supervisors’ execution of enforcement actions in the Banking Union and the United States. After discussing work on the effect of enforcement action on bank behaviour and the real economy, we present data on the evolution of enforcement actions
and monetary penalties by U.S. regulators. We conclude by noting the importance of supervisors to levy efficient monetary penalties and stressing that a division of competences among different regulators should not lead to a loss of efficiency regarding
the execution of enforcement actions.
The centerpiece of all neuronal processes is the synaptic transmission. It consists of a complex series of events. Two key elements are the binding of synaptic vesicles (SV) to the presynaptic membrane and the subsequent fusion of the two membranes. SV are neurotransmitter-filled membranous spheres with many integral and peripheral proteins. The synaptic SNARE complex consists of three interacting proteins, which energize and regulate the fusion of the SV membrane with the presynaptic membrane. Both processes are closely orchestrated to ensure a specific release of neurotransmitter. Already many experiments have been performed, such as genetic screens and proteome analysis of SV, to determine the functions of the various proteins involved. Nevertheless, the functions of the identified proteins are still not fully elucidated. The aim of this thesis was initially applying a tandem affinity purification (TAP) of SV to identify unknown interaction partner of SV and to determine their role. This was supposed to be performed in the model organism Caenorhabditis elegans (C. elegans). The underlying mechanisms are conserved throughout the phylogentic tree and identified interaction partners will help to understand the processes in the mammalian brain. Although there is no neuron-rich tissue in C. elegans as in other model organisms, the diverse genetic methods allows a rapid creation of modified organisms and a prompt determination of the function of identified proteins. The integral SV protein synaptogyrin has been fused to a TAP-tag. The TAP-tag consists of a ProteinA, a TEV protease cleavage site and a calmodulin binding peptide (CBP). Both affinity purification steps are performed sequentially and allow a highly specific native purification of proteins and their interaction partners. Due to technical difficulties the purification strategy was modified several times during the course of this thesis and then finally abandoned for a more promising project, the SNARE complex purification. In conclusion, one of the reasons was the necessary lack of detergent.
The amended aim of this thesis has been the TAP of solubilized SNARE complex to identify unknown interaction partner and to determine their role. In order to increase the specificity of the purification, in terms of formed complexes, the two SNARE subunits, synaptobrevin (SNB-1 in C. elegans) and syntaxin (UNC-64 in C. elegans), were separately fused to the different affinity tags. As the modifications of the proteins could impair their function and lead to false interaction partners, their functionality was tested. For this purpose, the corresponding fusion constructs were expressed in strains with mutated snb¬1 and unc-64. Non-functional synaptic proteins display an altered course of paralysis in an aldicarb assay. The fusion proteins which were expressed in their respective mutant strains displayed a near to wild-type (WT) behavior in contrast to the naive mutant strains. Multiple TAP demonstrated SNB-1 signals in Western blot analysis and complex sets of proteins in the final elution step in a silver staining of SDS-PAGEs. These samples were sent with negative control (WT purification) for MS analysis to various cooperation partners. 119 proteins were identified which appeared only in data sets with SNARE proteins and not in WT samples. If proteins were detected in ≥ 2 SNARE positive MS analysis and had known neural functions or homologies to neuronal proteins in other species, they were selected for further analysis. These candidates were knocked down by RNAi and tested for synaptic function in a following aldicarb assay. The treatment with their specific RNAi resulted for mca-3 in a strong resistance, while frm-2, snap-29, ekl-6, klb-8, mdh-2, pfk-2, piki-1 and vamp-8 resulted in hypersensitivity. The most responsive genes frm-2, snap-29 and mca-3 were examined, whether they displayed a co-localization together with synaptobrevin in promoter fusion constructs or functional fusion constructs. In fluorescence microscopy images only MCA-3::YFP demonstrated neuronal expression.
In order to substantiate the synaptic nature and functionality of the MCA-3::YFP a swimming assay was performed. Here, fusion construct expressing strains, which contained mutated mca-3, were compared with untreated mutant strains and WT strains according to their behavior. In this swimming assay a partial restoration of WT behavior was shown in the MCA-3::YFP expressing mutant strains. Based on these data, we discovered with MCA 3 a new interaction partner of the SNARE complex. MCA-3 is a plasma membrane Ca2+-ATPase and was initially seen only in their role in the endocytosis. Its new putative role is the reduction of Ca2+ concentration at the bound SNARE complex. Since an interaction of syntaxin with Ca2+ channels has been demonstrated, it would be comprehensible to reduce the local concentration of Ca2+ to a minimum by tethering Ca2+ transporters to the SNARE complex.
The estimation of water balance components as well as water-related indicators on the land surface by means of global hydrological models have evolved in recent decades. Results of such models are frequently used in global- and continental-scale assessments of the current and future state of the terrestrial water cycle and provide a valuable data basis, e.g., for the Intergovernmental Panel on Climate Change. The Water – Global Assessment and Prognosis (WaterGAP) model is one of the state-of-the-art models in that field and has been in development and application for around 20 years. The evaluation, modification and application of WaterGAP is the subject of this thesis. In particular, the sensitivity of climate input data on radiation calculation and simulated water fluxes and storages is evaluated in the first part. Effects of model modification such as updated spatial input datasets, improved process representation or an alternative calibration scheme are the focus of the second part. Finally, three applications of WaterGAP give insight into the capabilities of that model, namely an estimate of global and continental water balance components, an assessment of groundwater depletion and the impact of climate change on river flow regimes. Model experiments, which are described in six journal papers as well as the appendices, were used as the basis for answering the total of 13 research questions. One of the major foci was to quantify the sensitivity of simulated water fluxes and storages to alternative climate input data. It was found that the handling of precipitation undercatch leads to the greatest difference in water balance components, especially in those areas where WaterGAP is not calibrated due to a lack of river discharge observations. The modifications of WaterGAP in the last few decades has led in general to an improved simulation of monthly river discharge, but process representation in semi-arid and arid regions still requires improvements. With the most current model version, WaterGAP 2.2b, and for the time period 1971–2000, river discharge to the oceans and inland sinks is estimated to be 40 000 km3 yr-1, whereas actual evapotranspiration is simulated as 70 500 km3 yr-1. Future research needs for WaterGAP in particular but also for the global hydrological model community in general are defined, promoting a community-driven effort for a robust assessment of the continental water cycle.
NOSTRIN belongs to the family of F-BAR proteins, which are multi-domain adaptor proteins that have emerged as important regulators of membrane remodeling and actin dynamics in a variety of vital cellular processes. They have been analyzed structurally and biochemically and overexpression studies have revealed their potential in inducing membrane curvature and tubulation. Several studies have begun to decipher the function of individual proteins, but the understanding of F-BAR protein functions in vivo is still quite limited. The F-BAR protein NOSTRIN is mainly expressed in endothelial cells and has originally been described as interaction partner of the endothelial nitric oxide synthase (eNOS), modulating eNOS subcellular localization. The phenotypic characterization of NOSTRIN knockout mice revealed decreased nitric oxide (NO) and cGMP levels, an increase in systolic blood pressure and an impairment of the acetylcholine-induced, NO-dependent relaxation of aortic rings from mice with global as well as endothelial cell-specific knockout of the NOSTRIN gene (ECKO) . These findings implied that NOSTRIN plays a role in regulating NO production in vivo, but the underlying molecular mechanisms were unclear. Therefore, this study was aimed at addressing the mechanism causing the inhibited vasodilation specifically upon stimulation with acetylcholine in NOSTRIN KO and ECKO mice, and at exploring additional roles of NOSTRIN in the signal transduction of endothelial cells.
The major acetylcholine receptor that mediates vessel relaxation upon stimulation with acetylcholine is the muscarinic acetylcholine receptor subtype M3 (M3R). In the present study NOSTRIN was identified as novel interaction partner of the M3R and important factor for the correct spatial distribution and functionality of the M3R. Moreover, it provides the first example of an F-BAR protein regulating a GPCR. Confocal immunofluorescence microscopy analysis of isolated aortae from NOSTRIN KO and WT mice indicated that NOSTRIN was necessary for the proper subcellular localization of the M3R and targeted it to the plasma membrane. A series of pulldown experiments revealed a direct interaction of NOSTRIN with the M3R. The binding required the SH3 domain of NOSTRIN and the third intracellular loop of the M3R, which has a recognized role in receptor regulation. The interaction of NOSTRIN with the M3R was confirmed by co-localization of NOSTRIN and the M3R upon overexpression in mammalian cells. Expression levels of the M3R as well as eNOS were not affected by the loss of NOSTRIN in accordance with the finding, that NOSTRIN impacts on the acetylcholine/eNOS signaling axis through regulation of the subcellular trafficking of its binding partners.
Furthermore, there were first indications for a role of NOSTRIN in facilitating the carbachol-induced calcium response in M3R-expressing cells, suggesting that NOSTRIN might influence M3R activation. in the absence of NOSTRIN, the function of the M3R in mammalian cells overexpressing the M3R was markedly impaired, resulting in abolition of the calcium response to the M3R agonist carbachol. In accordance, the activated eNOS fraction associated with the Golgi complex was markedly reduced in aorta explants from NOSTRIN knockout and ECKO mice. Moreover, NOSTRIN knockout inhibited the carbachol-induced, activating phosphorylation of eNOS in murine aortae as well as primary mouse lung endothelial cells confirming its role as important regulator of eNOS activity in vivo.
Mit dem Stichwort "Materialanalyse" tritt ins Blickfeld, was Walter Benjamin als ein "zentrales Problem des historischen Materialismus" bezeichnet hat: "auf welchem Wege es möglich ist, gesteigerte Anschaulichkeit mit der Durchführung der marxistischen Methode zu verbinden". Die Frage betrifft die Beziehungen von Philologie, geschichtlicher Erfahrung und materialistischer Dialektik im Zusammenhang einer Geschichtsschreibung, der es nicht, wie der konservativen Hermeneutik, um das "Einrücken in ein Überlieferungsgeschehen" geht, sondern darum, das "Kontinuum der Geschichte aufzusprengen. Dass die marxistische Methode auf jene 'Beschaulichkeit' verzichten muss, die 'für' Benjamin das Verfahren des Historismus kennzeichnet, gründet in der von Friedrich Engels ausgegebenen Maxime, wonach die dialektische Darstellung den "Schein einer selbständigen Geschichte [...] der ideologischen Vorstellungen " aufzulösen habe, indem sie den "vom Denken unabhängigen Ursprung" zu ihrem Ausgangspunkt macht. Für Benjamin ist ihr Prinzip kein 'episches', sondern das der Montage. Sie ermöglicht, "die großen Konstruktionen aus kleinsten, scharf und schneidend konfektionierten Baugliedern zu errichten", um "durch Analyse des kleinen Einzelmoments" den "Kristall des Totalgeschehens" sichtbar werden zu lassen. Das Verfahren, das auch im apokryphen Materialgesellschaftliche Einsichten zu gewinnen sucht, verlangt nach einer aktiven Lektüre, die weniger 'auslegt' als 'übersetzt' und also den Text nicht unverändert lässt. Die Materialanalyse geht nicht aus von einem abstrakten Allgemeinbegriff, unter dem die Einzeldinge zum 'Spezialfall' herabsinken. Sie verlangt vielmehr, wie Theodor W. Adorno von der Dialektik fordert, die "Einlösung des Anspruchs der besonderen spezifischen Erkenntnis auf ihre Allgemeinheit". Ihren Namen, der in Studienprojekten des Argument-Verlags Ende der 1970er Jahre programmatisch wird, rechtfertigt die Materialanalyse da, wo das geschichtliche Material und eine am Begriff des Gegenstands selbst gebildete Reflexion sich zusammenschließen. Gefordert ist daher eine philosophische Arbeit, wie sie in marxistischer Tradition vor allem von Walter Benjamin und Antonio Gramsci ins Werk gesetzt worden ist. Die Materialanalyse setzt kein 'System' oder einen 'Entwurf' voraus, sondern schöpft aus der Kritik und dem Kommentar von Texten, prototypisch durchgeführt in der marxschen Kritik der politischen Ökonomie. Sie verlangt eine Kunst des Zitierens, wie sie sich im 'Passagen-Werk' von Benjamin ähnlich wie in den 'Gefängnisheften' Gramscis vorgebildet findet. Ihre Verfasser "haben vorgemacht, wie aus Zitaten ein Text aufgebaut werden kann, der den Ursprungstexten nie in den Sinn gekommen wäre". Das Feststellen der "Einzeltatsachen in ihrer unverwechselbaren 'Individualität'" gilt dabei als eine unhintergehbare Voraussetzung 'für die Schaffung einer' "lebendigen Philologie", die ihr Material analytisch zu durchdringen versteht.
In den Jahren um 1900 explodiert in Deutschland die sprachwissenschaftliche und sprachtheoretische 'Szene'. Alles, was in den nationalphilologischen Synthesen des 19. Jahrhunderts keinen Platz finden konnte, drängt spätestens jetzt zurück in das Licht der akademischen Öffentlichkeit. Nicht oder kaum akademisierte Unterströmungen wie die Sprachpsychologie, die Schulgrammatik, die Semantik, die Semiotik machen von sich reden. Bei weitem nicht alles wirkt dann tatsächlich auf die akademische Sprachwissenschaft. Diese sprachwissenschaftliche 'Überfülle' ist erst gebändigt worden in der Rezeption des kanonischen 'Cours de linguistique générale' Saussures, die einigermaßen erfolgreich den "eigentlichen" Gegenstand der Sprachwissenschaft als 'langue', als synchronisch zu fassendes einzelsprachliches Zeichensystem, zu fixieren suchte. All das ist historiographisch gut erforscht. Su gut wie überhaupt nicht im Blick der Historiographen ist hingegen die ebenfalls um 1900 erstmals erscheinende sprachwissenschaftliche Problemlinie, die später zu einer ebenfalls wirkmächtigen soziologisch-kommunikativen Sprachauffassung hinführt. Gute und gründliche Arbeiten gibt es zwar zur Vor- und Frühgeschichte der "Pragmatik", aber kaum untersucht ist die Vorgeschichte dessen, was heute entweder politische Begriffsgeschichte, Diskursanalyse oder Politolinguistik heißt. Das hängt gewiss damit zusammen, dass in Diskursanalyse und Begriffsgeschichte keineswegs nur (noch nicht einmal hauptsächlich) sprachwissenschaftliche Traditionen zusammenlaufen, sondern eben auch soziologische, politologische, philosophische. Ein bloßer Vortrag, versteht sich, kann diese Lücke nicht füllen. Ich will gleichwohl versuchen, wenigstens einen Strang aus dem einschlägigen problemgeschichtlichen Bündel zu ziehen - und der beginnt mit Karl Otto Erdmann.
Die stetig wachsende Menge an digital verfügbarem, zeitgenössischem wie historischem Textmaterial bietet für die begriffsgeschichtliche Forschung Chancen und Herausforderungen: Während die fortschreitende Digitalisierung die Verfügbarkeit erforschbaren Materials deutlich erhöht, resultiert aus der verbesserten Auffindbarkeit potentieller Quellen eine schwindende Übersicht dessen, was für begriffsgeschichtliche Studien überhaupt in Betracht zu ziehen ist. Am Beispiel der Begriffe Netz, Netzwerk und Vernetzung erproben wir quantitative, semi-automatische Ansätze für eine digitale Begriffsgeschichte. Dafür identifizieren wir zunächst die Beschränkungen des Tools Google Ngrams, das weder für die Analyse von Wortbedeutungen noch für die Bestimmung der Kontexte von Wortverwendungen geeignet ist. Demgegenüber erörtern wir die Vorzüge einer hier erstmals im Kontext begriffsgeschichtlicher Forschung vorgestellten Methode der vorwissensfreien Bedeutungsinduktion, die semantische Aspekte gesuchter Begriffsworte automatisch ermittelt, deren typische und untypische Verwendungskontexte aggregiert, Wortfelder kartiert und durch einen geeigneten Index die Möglichkeit bietet, Belegstellen zu betrachten sowie die Veränderung von Wortbedeutungen im Laufe eines gegebenen Zeitraums zu analysieren. Mittels dieser interaktiven, semi-automatischen Methode lässt sich für den deutschen Sprachraum nachweisen, dass sich zu Beginn des 21. Jahrhunderts ein Problemdiskurs über Netzwerke entwickelt, mit dem sich ein Wandel der Semantik des Begriffswortes erklären lässt. Mit dem vorgestellten Verfahren lässt sich auch die Bedeutung komplexer metaphorischer Prozesse für den zu erklärenden Begriffswandel erschließen.
Semantische Kämpfe gehören zum Alltag, die Gegenwart ist geradezu erfüllt von ihnen, denn "Herrschaft und Macht werden auch über Semantik ausgeübt". Man möchte deshalb meinen, dass sie einfach zum Sprachgebrauch gehören und seit jeher unsere verbalen Auseinandersetzungen begleiten. Ob das richtig ist, kann und soll hier gar nicht untersucht werden, Historiker sind dafür eher ungeeignet. Seit wann sie aber in unser Bewusstsein getreten sind und weshalb, ist eine Frage, zu der die Begriffsgeschichte durchaus etwas beizutragen hat. Es verdient darum Interesse, den weit über Deutschland hinaus bekannten Historiker der Ideen und Begriffe, den 2006 verstorbenen Reinhart Koselleck, auf seinem Weg vom hochgradig ideologisierten Konzept semantischer Kämpfe zur radikal historisierten Begriffsgeschichte zu begleiten, weil einige seiner dabei gemachten Einsichten ganz allgemein zu verstehen helfen, wie in Europa sprachlich die Moderne entstand und welchen Verlauf sie genommen hat.
Rahel Jaeggi und Tilo Wesche erstellen im Sammelband 'Was ist Kritik?' eine präzise Kartographie der historischen Hauptbedeutungen dieses Begriffes, wobei sie vier Formen unterscheiden: 1) Aufklärung oder Zeitalter der Kritik, 2) historische Kritik, 3) emanzipatorische Kritik oder intellektuelle Tugend und 4) philosophische Kritik. Alle vier Formen sind mit eigenen Nuancen im Werk von Reinhart Koselleck zu finden, der, wie bekannt, nicht im Bann der sogenannten Frankfurter Schule stand. Er hat sich mit der 'Aufklärung als Zeitalter der Kritik' auseinandergesetzt und sogar von der "Dialektik der Aufklärung" gesprochen, genauer gesagt von der Dialektik von Politik und Moral in der Neuzeit. In Form einer Metakritik bzw. einer "Aufklärung über die Aufklärung" unterzog er deren ideologische Pervertierung der Moral einer bissigen Kritik. Koselleck meinte, diese perfide Dialektik, die moralisierende Politik, sei nicht obsolet geworden, sondern sie habe zu den Weltanschauungskriegen des 20. Jahrhunderts geführt. Er kultivierte keine moralische Enthaltung oder Abstinenz, aber er war mit den Exzessen des Moralismus vertraut und misstraute ihnen deshalb.
'Die Zukunft kommt von selbst - der Fortschritt nur mit uns' war das Motto eines SPD-Parteitages im Jahr 1988 in Münster. Dieses Motto verrät nicht nur etwas darüber, wie der Begriff des Fortschritts interpretiert wurde (dass Fortschritt nämlich im Unterschied zur Zukunft nicht automatisch eintritt, sondern politisch 'gemacht' werden muss und dass er, im Gegensatz zur unbestimmten Zukunft, kommen 'soll'), sondern zeigt vor allem, dass gerade dieser Begriff und der mit ihm verbundene politische Gestaltungsanspruch als wesentliches Distinktionsmerkmal zum politischen Gegner herausgestellt wurde. Die Beschlüsse, die 2016 auf dem Parteikonvent der SPD gefasst wurden, standen unter dem Motto 'Fortschritt und Gerechtigkeit'. Dieses Begriffspaar, so erklärte der Bundesvorsitzende Sigmar Gabriel, sei die "Seele der Partei". Die Selbstbeschreibung als Partei des Fortschritts vereinfacht aber die Sache. Wie gezeigt werden soll, hat die Rede über Fortschritt in der Sozialdemokratie eine wechselvolle und ambivalente Geschichte, angesichts derer der heutige, recht ungebrochene Bezug auf das Schlagwort Fortschritt doch ein wenig überrascht. Der Geschichte des Fortschrittsbegriffs in der deutschen Sozialdemokratie soll im Folgenden in einigen wichtigen Momenten durch eine Untersuchung der Programmtexte nachgegangen werden. Dazu wurde auch auf die Methoden der digitalen Korpusanalyse zurückgegriffen. Der Schwerpunkt liegt in diesem Beitrag auf der Herausbildung und der Erosion der 'klassischen' Prägung des Fortschrittsbegriffs in der SPD in der Bundesrepublik. Er wurde nach der Neuausrichtung der SPD beim Parteitag in Bad Godesberg 1959 in besonderer Weise mit benachbarten Kategorien gekoppelt und hat so die grundlegende politische Zielsetzung und das Selbstbild der Partei nachhaltig geprägt.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
"Wellenformen" : die Leistung mathematischer Modellbildung für Akustik, Physiologie und Musiktheorie
(2016)
Im Jahr 1857 hält Hermann von Helmholtz einen Vortrag 'Ueber die physiologischen Ursachen der musikalischen Harmonien', in dem er erstmals Ergebnisse seiner akustischen und hörphysiologischen Forschungen einer akademischen Öffentlichkeit vorstellt. Dabei bilden die Untersuchungen und Experimente, die Helmholtz im Rahmen seiner Tätigkeit als Professor für Anatomie und Physiologie an der Universität Bonn durchgeführt hat, Grundlage und Ausgangspunkt einer umfassenden Neukonstitution von Wissenszusammenhängen, in deren Zuge ältere Wissensbestände arrondiert, im Lichte neuer Erkenntnisse bewertet, erweitert, neu gefasst und in ausgearbeiteter Form sechs Jahre später unter dem Titel 'Die Lehre von den Tonempfindungen' veröffentlicht werden. In den einleitenden Worten seines Vortrages aus dem Jahr 1857 verweist Helmholtz in diesem Kontext auf einen Aspekt, der ihm offenkundig von großer Signifikanz zu sein scheint:
"Es hat mich immer als ein wunderbares und besonders interessantes Geheimnis angezogen, dass gerade in der Lehre von den Tönen, in den physikalischen und technischen Fundamenten der Musik, die unter allen Künsten in ihrer Wirkung auf das Gemüth als die stoffloseste, flüchtigste und zarteste Urheberin unberechenbarer und unbeschreiblicher Stimmungen erscheint, die Wissenschaft des reinsten und consequentesten Denkens, die Mathematik, sich so fruchtbar erwies."
Bemerkenswert an dieser Aussage ist nicht, dass Musik und Mathematik in eine enge Beziehung zueinander gesetzt werden - hier kann Helmholtz auf eine über zweitausendjährige Tradition der wechselseitigen Elaboration beider Bereiche verweisen -, sondern dass Darlegungen, die auf die systematische Durchdringung der Zusammenhänge zwischen akustischen, physiologischen, psychischen, musiktheoretischen und ästhetischen Phänomenbereichen zielen, ihren Ausgangspunkt in der Mathematik nehmen. Diesen Leistungen, die mathematisches Denken für die Untersuchung und Explikation dieser Zusammenhänge erbringt, möchte der folgende Beitrag nachgehen. Es wird sich zeigen, dass eine spezifische mathematische Operation für das Verständnis von akustischen und physiologischen Prozessen modellbildend wirkt und über verschiedene Applikationswege hinweg neue Impulse der Systematisierung von Wissensbeständen setzt.
Klima wird in der industriellen Moderne zum Problem des Wissens. Anders als das Wetter ist das Klima der direkten Wahrnehmung entzogen; ein Umstand, der paradoxerweise immer problematischer zu werden scheint, je mehr Wissen über die komplexen Zusammenhänge von lokalen Wetterereignissen und globalem Klima existiert. Das moderne Klima ist ein wandelbares, globales Phänomen, dessen Erkenntnis doppelt vermittelt ist, insofern es weder sinnlich erfahrbar noch verstandesmäßig erfassbar und somit auf Modellierung angewiesen ist. Diese findet jedoch nicht allein im wissenschaftlichen Kontext statt. Vielmehr ist die Herstellung von Klima als Bedingung von (Lebens-)Wirklichkeit und Zukunft trotz ihres unterschiedlichen epistemischen Status das Ergebnis wechselseitiger Einflussnahme wissenschaftlicher und nicht-wissenschaftlicher Modelle.