Refine
Year of publication
Document Type
- Article (30755)
- Part of Periodical (11923)
- Book (8316)
- Doctoral Thesis (5735)
- Part of a Book (3721)
- Working Paper (3388)
- Review (2878)
- Contribution to a Periodical (2369)
- Preprint (2217)
- Report (1544)
Language
- German (42604)
- English (29594)
- French (1067)
- Portuguese (723)
- Multiple languages (314)
- Croatian (302)
- Spanish (301)
- Italian (195)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (75747) (remove)
Keywords
- Deutsch (1038)
- Literatur (809)
- taxonomy (766)
- Deutschland (543)
- Rezension (491)
- new species (453)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Übersetzung (271)
Institute
- Medizin (7773)
- Präsidium (5232)
- Physik (4576)
- Wirtschaftswissenschaften (2710)
- Extern (2661)
- Gesellschaftswissenschaften (2378)
- Biowissenschaften (2196)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1775)
- Center for Financial Studies (CFS) (1632)
The estimation of water balance components as well as water-related indicators on the land surface by means of global hydrological models have evolved in recent decades. Results of such models are frequently used in global- and continental-scale assessments of the current and future state of the terrestrial water cycle and provide a valuable data basis, e.g., for the Intergovernmental Panel on Climate Change. The Water – Global Assessment and Prognosis (WaterGAP) model is one of the state-of-the-art models in that field and has been in development and application for around 20 years. The evaluation, modification and application of WaterGAP is the subject of this thesis. In particular, the sensitivity of climate input data on radiation calculation and simulated water fluxes and storages is evaluated in the first part. Effects of model modification such as updated spatial input datasets, improved process representation or an alternative calibration scheme are the focus of the second part. Finally, three applications of WaterGAP give insight into the capabilities of that model, namely an estimate of global and continental water balance components, an assessment of groundwater depletion and the impact of climate change on river flow regimes. Model experiments, which are described in six journal papers as well as the appendices, were used as the basis for answering the total of 13 research questions. One of the major foci was to quantify the sensitivity of simulated water fluxes and storages to alternative climate input data. It was found that the handling of precipitation undercatch leads to the greatest difference in water balance components, especially in those areas where WaterGAP is not calibrated due to a lack of river discharge observations. The modifications of WaterGAP in the last few decades has led in general to an improved simulation of monthly river discharge, but process representation in semi-arid and arid regions still requires improvements. With the most current model version, WaterGAP 2.2b, and for the time period 1971–2000, river discharge to the oceans and inland sinks is estimated to be 40 000 km3 yr-1, whereas actual evapotranspiration is simulated as 70 500 km3 yr-1. Future research needs for WaterGAP in particular but also for the global hydrological model community in general are defined, promoting a community-driven effort for a robust assessment of the continental water cycle.
NOSTRIN belongs to the family of F-BAR proteins, which are multi-domain adaptor proteins that have emerged as important regulators of membrane remodeling and actin dynamics in a variety of vital cellular processes. They have been analyzed structurally and biochemically and overexpression studies have revealed their potential in inducing membrane curvature and tubulation. Several studies have begun to decipher the function of individual proteins, but the understanding of F-BAR protein functions in vivo is still quite limited. The F-BAR protein NOSTRIN is mainly expressed in endothelial cells and has originally been described as interaction partner of the endothelial nitric oxide synthase (eNOS), modulating eNOS subcellular localization. The phenotypic characterization of NOSTRIN knockout mice revealed decreased nitric oxide (NO) and cGMP levels, an increase in systolic blood pressure and an impairment of the acetylcholine-induced, NO-dependent relaxation of aortic rings from mice with global as well as endothelial cell-specific knockout of the NOSTRIN gene (ECKO) . These findings implied that NOSTRIN plays a role in regulating NO production in vivo, but the underlying molecular mechanisms were unclear. Therefore, this study was aimed at addressing the mechanism causing the inhibited vasodilation specifically upon stimulation with acetylcholine in NOSTRIN KO and ECKO mice, and at exploring additional roles of NOSTRIN in the signal transduction of endothelial cells.
The major acetylcholine receptor that mediates vessel relaxation upon stimulation with acetylcholine is the muscarinic acetylcholine receptor subtype M3 (M3R). In the present study NOSTRIN was identified as novel interaction partner of the M3R and important factor for the correct spatial distribution and functionality of the M3R. Moreover, it provides the first example of an F-BAR protein regulating a GPCR. Confocal immunofluorescence microscopy analysis of isolated aortae from NOSTRIN KO and WT mice indicated that NOSTRIN was necessary for the proper subcellular localization of the M3R and targeted it to the plasma membrane. A series of pulldown experiments revealed a direct interaction of NOSTRIN with the M3R. The binding required the SH3 domain of NOSTRIN and the third intracellular loop of the M3R, which has a recognized role in receptor regulation. The interaction of NOSTRIN with the M3R was confirmed by co-localization of NOSTRIN and the M3R upon overexpression in mammalian cells. Expression levels of the M3R as well as eNOS were not affected by the loss of NOSTRIN in accordance with the finding, that NOSTRIN impacts on the acetylcholine/eNOS signaling axis through regulation of the subcellular trafficking of its binding partners.
Furthermore, there were first indications for a role of NOSTRIN in facilitating the carbachol-induced calcium response in M3R-expressing cells, suggesting that NOSTRIN might influence M3R activation. in the absence of NOSTRIN, the function of the M3R in mammalian cells overexpressing the M3R was markedly impaired, resulting in abolition of the calcium response to the M3R agonist carbachol. In accordance, the activated eNOS fraction associated with the Golgi complex was markedly reduced in aorta explants from NOSTRIN knockout and ECKO mice. Moreover, NOSTRIN knockout inhibited the carbachol-induced, activating phosphorylation of eNOS in murine aortae as well as primary mouse lung endothelial cells confirming its role as important regulator of eNOS activity in vivo.
Mit dem Stichwort "Materialanalyse" tritt ins Blickfeld, was Walter Benjamin als ein "zentrales Problem des historischen Materialismus" bezeichnet hat: "auf welchem Wege es möglich ist, gesteigerte Anschaulichkeit mit der Durchführung der marxistischen Methode zu verbinden". Die Frage betrifft die Beziehungen von Philologie, geschichtlicher Erfahrung und materialistischer Dialektik im Zusammenhang einer Geschichtsschreibung, der es nicht, wie der konservativen Hermeneutik, um das "Einrücken in ein Überlieferungsgeschehen" geht, sondern darum, das "Kontinuum der Geschichte aufzusprengen. Dass die marxistische Methode auf jene 'Beschaulichkeit' verzichten muss, die 'für' Benjamin das Verfahren des Historismus kennzeichnet, gründet in der von Friedrich Engels ausgegebenen Maxime, wonach die dialektische Darstellung den "Schein einer selbständigen Geschichte [...] der ideologischen Vorstellungen " aufzulösen habe, indem sie den "vom Denken unabhängigen Ursprung" zu ihrem Ausgangspunkt macht. Für Benjamin ist ihr Prinzip kein 'episches', sondern das der Montage. Sie ermöglicht, "die großen Konstruktionen aus kleinsten, scharf und schneidend konfektionierten Baugliedern zu errichten", um "durch Analyse des kleinen Einzelmoments" den "Kristall des Totalgeschehens" sichtbar werden zu lassen. Das Verfahren, das auch im apokryphen Materialgesellschaftliche Einsichten zu gewinnen sucht, verlangt nach einer aktiven Lektüre, die weniger 'auslegt' als 'übersetzt' und also den Text nicht unverändert lässt. Die Materialanalyse geht nicht aus von einem abstrakten Allgemeinbegriff, unter dem die Einzeldinge zum 'Spezialfall' herabsinken. Sie verlangt vielmehr, wie Theodor W. Adorno von der Dialektik fordert, die "Einlösung des Anspruchs der besonderen spezifischen Erkenntnis auf ihre Allgemeinheit". Ihren Namen, der in Studienprojekten des Argument-Verlags Ende der 1970er Jahre programmatisch wird, rechtfertigt die Materialanalyse da, wo das geschichtliche Material und eine am Begriff des Gegenstands selbst gebildete Reflexion sich zusammenschließen. Gefordert ist daher eine philosophische Arbeit, wie sie in marxistischer Tradition vor allem von Walter Benjamin und Antonio Gramsci ins Werk gesetzt worden ist. Die Materialanalyse setzt kein 'System' oder einen 'Entwurf' voraus, sondern schöpft aus der Kritik und dem Kommentar von Texten, prototypisch durchgeführt in der marxschen Kritik der politischen Ökonomie. Sie verlangt eine Kunst des Zitierens, wie sie sich im 'Passagen-Werk' von Benjamin ähnlich wie in den 'Gefängnisheften' Gramscis vorgebildet findet. Ihre Verfasser "haben vorgemacht, wie aus Zitaten ein Text aufgebaut werden kann, der den Ursprungstexten nie in den Sinn gekommen wäre". Das Feststellen der "Einzeltatsachen in ihrer unverwechselbaren 'Individualität'" gilt dabei als eine unhintergehbare Voraussetzung 'für die Schaffung einer' "lebendigen Philologie", die ihr Material analytisch zu durchdringen versteht.
In den Jahren um 1900 explodiert in Deutschland die sprachwissenschaftliche und sprachtheoretische 'Szene'. Alles, was in den nationalphilologischen Synthesen des 19. Jahrhunderts keinen Platz finden konnte, drängt spätestens jetzt zurück in das Licht der akademischen Öffentlichkeit. Nicht oder kaum akademisierte Unterströmungen wie die Sprachpsychologie, die Schulgrammatik, die Semantik, die Semiotik machen von sich reden. Bei weitem nicht alles wirkt dann tatsächlich auf die akademische Sprachwissenschaft. Diese sprachwissenschaftliche 'Überfülle' ist erst gebändigt worden in der Rezeption des kanonischen 'Cours de linguistique générale' Saussures, die einigermaßen erfolgreich den "eigentlichen" Gegenstand der Sprachwissenschaft als 'langue', als synchronisch zu fassendes einzelsprachliches Zeichensystem, zu fixieren suchte. All das ist historiographisch gut erforscht. Su gut wie überhaupt nicht im Blick der Historiographen ist hingegen die ebenfalls um 1900 erstmals erscheinende sprachwissenschaftliche Problemlinie, die später zu einer ebenfalls wirkmächtigen soziologisch-kommunikativen Sprachauffassung hinführt. Gute und gründliche Arbeiten gibt es zwar zur Vor- und Frühgeschichte der "Pragmatik", aber kaum untersucht ist die Vorgeschichte dessen, was heute entweder politische Begriffsgeschichte, Diskursanalyse oder Politolinguistik heißt. Das hängt gewiss damit zusammen, dass in Diskursanalyse und Begriffsgeschichte keineswegs nur (noch nicht einmal hauptsächlich) sprachwissenschaftliche Traditionen zusammenlaufen, sondern eben auch soziologische, politologische, philosophische. Ein bloßer Vortrag, versteht sich, kann diese Lücke nicht füllen. Ich will gleichwohl versuchen, wenigstens einen Strang aus dem einschlägigen problemgeschichtlichen Bündel zu ziehen - und der beginnt mit Karl Otto Erdmann.
Die stetig wachsende Menge an digital verfügbarem, zeitgenössischem wie historischem Textmaterial bietet für die begriffsgeschichtliche Forschung Chancen und Herausforderungen: Während die fortschreitende Digitalisierung die Verfügbarkeit erforschbaren Materials deutlich erhöht, resultiert aus der verbesserten Auffindbarkeit potentieller Quellen eine schwindende Übersicht dessen, was für begriffsgeschichtliche Studien überhaupt in Betracht zu ziehen ist. Am Beispiel der Begriffe Netz, Netzwerk und Vernetzung erproben wir quantitative, semi-automatische Ansätze für eine digitale Begriffsgeschichte. Dafür identifizieren wir zunächst die Beschränkungen des Tools Google Ngrams, das weder für die Analyse von Wortbedeutungen noch für die Bestimmung der Kontexte von Wortverwendungen geeignet ist. Demgegenüber erörtern wir die Vorzüge einer hier erstmals im Kontext begriffsgeschichtlicher Forschung vorgestellten Methode der vorwissensfreien Bedeutungsinduktion, die semantische Aspekte gesuchter Begriffsworte automatisch ermittelt, deren typische und untypische Verwendungskontexte aggregiert, Wortfelder kartiert und durch einen geeigneten Index die Möglichkeit bietet, Belegstellen zu betrachten sowie die Veränderung von Wortbedeutungen im Laufe eines gegebenen Zeitraums zu analysieren. Mittels dieser interaktiven, semi-automatischen Methode lässt sich für den deutschen Sprachraum nachweisen, dass sich zu Beginn des 21. Jahrhunderts ein Problemdiskurs über Netzwerke entwickelt, mit dem sich ein Wandel der Semantik des Begriffswortes erklären lässt. Mit dem vorgestellten Verfahren lässt sich auch die Bedeutung komplexer metaphorischer Prozesse für den zu erklärenden Begriffswandel erschließen.
Semantische Kämpfe gehören zum Alltag, die Gegenwart ist geradezu erfüllt von ihnen, denn "Herrschaft und Macht werden auch über Semantik ausgeübt". Man möchte deshalb meinen, dass sie einfach zum Sprachgebrauch gehören und seit jeher unsere verbalen Auseinandersetzungen begleiten. Ob das richtig ist, kann und soll hier gar nicht untersucht werden, Historiker sind dafür eher ungeeignet. Seit wann sie aber in unser Bewusstsein getreten sind und weshalb, ist eine Frage, zu der die Begriffsgeschichte durchaus etwas beizutragen hat. Es verdient darum Interesse, den weit über Deutschland hinaus bekannten Historiker der Ideen und Begriffe, den 2006 verstorbenen Reinhart Koselleck, auf seinem Weg vom hochgradig ideologisierten Konzept semantischer Kämpfe zur radikal historisierten Begriffsgeschichte zu begleiten, weil einige seiner dabei gemachten Einsichten ganz allgemein zu verstehen helfen, wie in Europa sprachlich die Moderne entstand und welchen Verlauf sie genommen hat.
Rahel Jaeggi und Tilo Wesche erstellen im Sammelband 'Was ist Kritik?' eine präzise Kartographie der historischen Hauptbedeutungen dieses Begriffes, wobei sie vier Formen unterscheiden: 1) Aufklärung oder Zeitalter der Kritik, 2) historische Kritik, 3) emanzipatorische Kritik oder intellektuelle Tugend und 4) philosophische Kritik. Alle vier Formen sind mit eigenen Nuancen im Werk von Reinhart Koselleck zu finden, der, wie bekannt, nicht im Bann der sogenannten Frankfurter Schule stand. Er hat sich mit der 'Aufklärung als Zeitalter der Kritik' auseinandergesetzt und sogar von der "Dialektik der Aufklärung" gesprochen, genauer gesagt von der Dialektik von Politik und Moral in der Neuzeit. In Form einer Metakritik bzw. einer "Aufklärung über die Aufklärung" unterzog er deren ideologische Pervertierung der Moral einer bissigen Kritik. Koselleck meinte, diese perfide Dialektik, die moralisierende Politik, sei nicht obsolet geworden, sondern sie habe zu den Weltanschauungskriegen des 20. Jahrhunderts geführt. Er kultivierte keine moralische Enthaltung oder Abstinenz, aber er war mit den Exzessen des Moralismus vertraut und misstraute ihnen deshalb.
'Die Zukunft kommt von selbst - der Fortschritt nur mit uns' war das Motto eines SPD-Parteitages im Jahr 1988 in Münster. Dieses Motto verrät nicht nur etwas darüber, wie der Begriff des Fortschritts interpretiert wurde (dass Fortschritt nämlich im Unterschied zur Zukunft nicht automatisch eintritt, sondern politisch 'gemacht' werden muss und dass er, im Gegensatz zur unbestimmten Zukunft, kommen 'soll'), sondern zeigt vor allem, dass gerade dieser Begriff und der mit ihm verbundene politische Gestaltungsanspruch als wesentliches Distinktionsmerkmal zum politischen Gegner herausgestellt wurde. Die Beschlüsse, die 2016 auf dem Parteikonvent der SPD gefasst wurden, standen unter dem Motto 'Fortschritt und Gerechtigkeit'. Dieses Begriffspaar, so erklärte der Bundesvorsitzende Sigmar Gabriel, sei die "Seele der Partei". Die Selbstbeschreibung als Partei des Fortschritts vereinfacht aber die Sache. Wie gezeigt werden soll, hat die Rede über Fortschritt in der Sozialdemokratie eine wechselvolle und ambivalente Geschichte, angesichts derer der heutige, recht ungebrochene Bezug auf das Schlagwort Fortschritt doch ein wenig überrascht. Der Geschichte des Fortschrittsbegriffs in der deutschen Sozialdemokratie soll im Folgenden in einigen wichtigen Momenten durch eine Untersuchung der Programmtexte nachgegangen werden. Dazu wurde auch auf die Methoden der digitalen Korpusanalyse zurückgegriffen. Der Schwerpunkt liegt in diesem Beitrag auf der Herausbildung und der Erosion der 'klassischen' Prägung des Fortschrittsbegriffs in der SPD in der Bundesrepublik. Er wurde nach der Neuausrichtung der SPD beim Parteitag in Bad Godesberg 1959 in besonderer Weise mit benachbarten Kategorien gekoppelt und hat so die grundlegende politische Zielsetzung und das Selbstbild der Partei nachhaltig geprägt.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
"Wellenformen" : die Leistung mathematischer Modellbildung für Akustik, Physiologie und Musiktheorie
(2016)
Im Jahr 1857 hält Hermann von Helmholtz einen Vortrag 'Ueber die physiologischen Ursachen der musikalischen Harmonien', in dem er erstmals Ergebnisse seiner akustischen und hörphysiologischen Forschungen einer akademischen Öffentlichkeit vorstellt. Dabei bilden die Untersuchungen und Experimente, die Helmholtz im Rahmen seiner Tätigkeit als Professor für Anatomie und Physiologie an der Universität Bonn durchgeführt hat, Grundlage und Ausgangspunkt einer umfassenden Neukonstitution von Wissenszusammenhängen, in deren Zuge ältere Wissensbestände arrondiert, im Lichte neuer Erkenntnisse bewertet, erweitert, neu gefasst und in ausgearbeiteter Form sechs Jahre später unter dem Titel 'Die Lehre von den Tonempfindungen' veröffentlicht werden. In den einleitenden Worten seines Vortrages aus dem Jahr 1857 verweist Helmholtz in diesem Kontext auf einen Aspekt, der ihm offenkundig von großer Signifikanz zu sein scheint:
"Es hat mich immer als ein wunderbares und besonders interessantes Geheimnis angezogen, dass gerade in der Lehre von den Tönen, in den physikalischen und technischen Fundamenten der Musik, die unter allen Künsten in ihrer Wirkung auf das Gemüth als die stoffloseste, flüchtigste und zarteste Urheberin unberechenbarer und unbeschreiblicher Stimmungen erscheint, die Wissenschaft des reinsten und consequentesten Denkens, die Mathematik, sich so fruchtbar erwies."
Bemerkenswert an dieser Aussage ist nicht, dass Musik und Mathematik in eine enge Beziehung zueinander gesetzt werden - hier kann Helmholtz auf eine über zweitausendjährige Tradition der wechselseitigen Elaboration beider Bereiche verweisen -, sondern dass Darlegungen, die auf die systematische Durchdringung der Zusammenhänge zwischen akustischen, physiologischen, psychischen, musiktheoretischen und ästhetischen Phänomenbereichen zielen, ihren Ausgangspunkt in der Mathematik nehmen. Diesen Leistungen, die mathematisches Denken für die Untersuchung und Explikation dieser Zusammenhänge erbringt, möchte der folgende Beitrag nachgehen. Es wird sich zeigen, dass eine spezifische mathematische Operation für das Verständnis von akustischen und physiologischen Prozessen modellbildend wirkt und über verschiedene Applikationswege hinweg neue Impulse der Systematisierung von Wissensbeständen setzt.
Klima wird in der industriellen Moderne zum Problem des Wissens. Anders als das Wetter ist das Klima der direkten Wahrnehmung entzogen; ein Umstand, der paradoxerweise immer problematischer zu werden scheint, je mehr Wissen über die komplexen Zusammenhänge von lokalen Wetterereignissen und globalem Klima existiert. Das moderne Klima ist ein wandelbares, globales Phänomen, dessen Erkenntnis doppelt vermittelt ist, insofern es weder sinnlich erfahrbar noch verstandesmäßig erfassbar und somit auf Modellierung angewiesen ist. Diese findet jedoch nicht allein im wissenschaftlichen Kontext statt. Vielmehr ist die Herstellung von Klima als Bedingung von (Lebens-)Wirklichkeit und Zukunft trotz ihres unterschiedlichen epistemischen Status das Ergebnis wechselseitiger Einflussnahme wissenschaftlicher und nicht-wissenschaftlicher Modelle.
Das Ziel dieser Arbeit ist die Entwicklung von neuen, experimentellen Ansätzen zur Thematisierung von Siliciumverbindungen im Chemieunterricht, die einen deutlichen lebensweltlichen Bezug aufweisen und moderne Entwicklungen berücksichtigen.
Die Bandbreite der Siliciumverbindungen reicht von den Silicaten im Bereich der Anorganik über elementares Silicium bis hin zu den polymeren Siliconen im Grenzbereich zu der Organik. Diese
große Vielfalt an Verbindungen hat eine Vielzahl von Anwendungen in tagtäglichen Produkten zur Folge. Dies sind einerseits relativ bekannte anorganische Baustoffe, wie Zement oder Sand, die schon seit der Antike von der Menschheit genutzt werden. Andererseits werden kontinuierlich neue Anwendungsmöglichkeiten in Alltag und Industrie für Siliciumverbindungen entwickelt, die in der modernen Lebenswelt der SchülerInnen einen festen Platz haben.
Oft ist das Vorhandensein der Siliciumverbindung gar nicht auf den ersten Blick erkennbar, obwohl sie die Eigenschaften eines Alltagsprodukts maßgeblich beeinflussen kann. Dies ist beispielsweise bei Silica-Verbindungen in der Zahncreme der Fall.
Im Chemieunterricht werden, wenn überhaupt, die „traditionellen“ Verwendungszwecke, wie in der Baustoffchemie, thematisiert, weniger dagegen die Funktion von Siliciumverbindungen in innovativen Produkten neueren Datums. Nur zögerlich werden Ansätze zur Thematisierung von Verbindungen, wie Siliconen, im Chemieunterricht etabliert.
Im Rahmen dieser Forschungsarbeit wurden daher auf der Grundlage einer fachdidaktischen Analyse und Diskussion Experimente zu ausgewählten Siliciumverbindungen entwickelt. Dies sind die Silicone, die Silica-Verbindungen und elementares Silicium. Die Experimente lassen sich größtenteils in der Sekundarstufe II in Anlehnung an verbindlich im Lehrplan thematisierte Inhalte in den Unterricht einbinden. Einige Experimente können nach einer angemessenen didaktischen Reduktion auch bereits in der Sekundarstufe I eingesetzt werden.
Die im Rahmen dieser Arbeit entwickelten Experimente wurden von LehrerInnen und SchülerInnen gleichermaßen erprobt. Es wurden Rückmeldungen zur Versuchen und Versuchsvorschriften eingeholt. Die Ergebnisse der Auswertung wurden zur Optimierung herangezogen.
In this paper we propose a way forward towards increased financial resilience in times of growing disagreement concerning open borders, free trade and global regulatory standards. In light of these concerns, financial resilience remains a highly valued policy objective. We wish to contribute by suggesting an agenda of concrete, do-able steps supporting an enhanced level of resilience, combined with a deeper understanding of its relevance in the public domain.
First, remove inconsistencies across regulatory rules and territorial regimes, and ensure their credibility concerning implementation. Second, discourage the use of financial regulatory standards as means of international competition. Third, give more weight to pedagogically explaining the established regulatory standards in public, to strengthen their societal backing.
Die vorliegende Arbeit beschäftigt sich mit der vergleichenden funktionalen Charakterisierung der E.coli Transporter LacY, FucP und XylE und des Glucose-Transporters GlcP aus Staphylococcus epidermidis sowie funktionsrelevanter Mutanten. Sie katalysieren in vivo den PMF-gekoppelten Zuckertransport und repräsentieren die major facilitator superfamily (MFS), einer der größten Transporter-Familien überhaupt. Die Studien wurden mithilfe einer elektrophysiologischen Methode auf Basis Festkörper-unterstützter Membranen (SSM) durchgeführt. Komplementär dazu wurden radioaktive Transportassays, fluorometrische Messungen, kinetische Simulationen und theoretische Berechnungen auf Basis der 3D-Strukturen durchgeführt. Experimentell bestimmte Zucker- und pH-Abhängigkeiten elektrogener steady-state und pre steady-state Reaktionen wurden verwendet, um ein allgemeingültiges kinetisches Modell aufzustellen.
Insgesamt konnten bei allen Transportern zwei elementare elektrogene Reaktionen identifiziert werden. Eine schnelle Zucker-induzierte Konformationsänderung wurde dem induced fit des Zuckermoleküls zugeordnet. Die Elektrogenität im steady-state wird dagegen durch den langsamen Transfer der negativ geladenen Protonenbindestelle bestimmt. Die für den Symport ratenlimitierende Reaktion ist abhängig von den äußeren Bedingungen wie pH-Werten, Zuckerkonzentrationen, Substrat-Spezies und Membranpotential meist die Konformationsänderung des leeren (P) oder des beladenen (PSH) Carriers, welche die Substratbindestellen im Zuge des Alternating Access über die Membran transferieren. Ein Wechsel zwischen hohen Protonenbindungs-pK-Werten und niedrigen Protonenfreisetzungs-pK-Werten durch weitere lokale Konformationsänderungen ist zentraler Bestandteil des Transportmechanismus. Ein weiterer wichtiger Aspekt ist die Kopplung zwischen Zucker- und Protonen-Translokation, die sich zwischen E.coli Transportern und GlcP strikt unterscheidet. In E.coli Transportern erfolgt eine kooperative Bindung von Zucker und Proton. Zudem erfolgt keine Konformationsänderung im Zucker-gebundenen, unprotonierten Carrier (PS). In GlcP ist die Kopplung erheblich reduziert. Der Transport-Modus selbst ist abhängig von den äußeren Bedingungen. So katalysiert GlcP abhängig vom pH-Gradienten Uniport, Symport oder Antiport.
Die vorliegende Arbeit leistet einen wichtigen Beitrag zum Verständnis des PMF-gekoppelten Zuckertransports und zeigt die Grenzen des für LacY formulierten 6-Zustands-Modells mit nur zwei Konformationsänderungen auf. Ein erweitertes 8-Zustands-Modell mit vier Konformationsänderungen, die unterschiedliche Ratenkonstanten aufweisen können, erklärt sowohl Symport, Antiport als auch Uniport und berücksichtigt zudem die zahlreichen Ergebnisse für LacY aus der Literatur.
Die Berichterstattung über den Nahostkonflikt gehört seit Jahrzehnten zum Standardrepertoire der Nachrichten. Hierzulande hat fast jeder eine Meinung zum israelisch-arabischen Konflikt, doch wenige verstehen, um was es den Konfliktparteien eigentlich geht, was in bisherigen Verhandlungen erreicht worden ist und wo genau die Hürden für eine Konfliktregelung liegen. Dieses Buch liefert eine kompakte und zugleich anschauliche und detaillierte Analyse des Konflikts zwischen Israel und seinen arabischen Nachbarn. Dabei stehen die lokalen und regionalen Akteure im Mittelpunkt. Um die Konfliktdynamiken zu erklären, geht das Buch vor allem auf die konkurrierenden Interessen und Narrative der Konfliktparteien sowie ihre Wechselwirkungen ein.
Der vorliegende Aufsatz befasst sich mit temporalen Uneindeutigkeiten ökonomischer Modellierungen, die einem Ansatz zugerechnet werden, der in der Wissenschaftsgeschichte der Ökonomik als 'Neoklassik' thematisiert wird und seit den 1870er Jahren vorgebracht wurde. Die Neoklassik hat sich als enorm einflussreich in der Wirtschaftswissenschaft erwiesen; sie liegt beispielsweise der seit der zweiten Hälfte des 20. Jahrhunderts zunehmende Eigenständigkeit erlangenden Finanztheorie ('Finance') zugrunde und informierte auch die in den 1970er Jahren erstarkende Bewegung, makroökonomische Modellierungen auf Tauschvorgänge zurückzuführen, die sich auf der Mikroebene, d. h. zwischen einzelnen ökonomischen Akteuren (Arbeitern, Firmen, Haushalten etc.) abspielen.
Zu den nachhaltigsten Prägungen des architektonischen Entwerfens gehört das vereinfachte Idealszenario, wonach der Prozess der Theorie- und Formbildung eine Kette von Modellierungsstufen sei, die vom Großen zum Kleinen, vom städtebaulichen Entwurf zur baukonstruktiven Detailplanung führen. Nach diesem Szenario steht am Anfang jeder Modellierungsphase eine architektonische Hypothese mit ihrem je spezifischen Gegenstandsversprechen. Als letzte Modellierungsstufe am Ende der Kette liegt das konkrete Bauwerk im Eins-zu-eins-Maßstab vor. Jede Stufe wird in maßstabsgetreuen Zeichnungen und Modellen entwickelt, die ihre Qualität aus der Entsprechung zum späteren Bauwerk gewinnen. In jeder Phase hat der Architekt die Möglichkeit, das bisher Modellierte durch Anschauung zu überprüfen, weiter auszuarbeiten oder zu verwerfen. Auf diese Weise wird der Entwurf von einer Stufe auf die nächste überführt. Das computerbasierte Modellieren scheint diese Idealkette entwurflicher Operationen zu unterbrechen. Unter Zuhilfenahme von 3D-Modellierungssoftware entwickelt der Architekt seinen Entwurf weniger in aufeinander aufbauenden Stufen als vielmehr in einer einzigen Stufe, die theoretisch alle anderen Stufen beinhaltet. Die erdachte Architektur wird nicht in abstrahierenden, voneinander getrennten Zeichnungen dargestellt, sondern in einem einzigen, zweidimensional wiedergegebenen 3D-Modell visualisiert. Digitale Prozessketten heben die tradierte Trennung zwischen intellektuellem Entwurfsakt und materieller Ausführung auf. Während im Analogen die architektonischen Entwurfszeichnungen zunächst in Ausführungspläne und anschließend von den am Bau beteiligten Gewerken in Werkstattpläne transformiert werden, sind im Digitalen Entwurf und Ausführung eng miteinander verschränkt. Die Produktionstechnologien greifen unmittelbar in die Entwurfsverfahren ein: Bei dem 'file to factory' genannten Modellierungsverfahren werden geometrische und technologische Informationen in einem Datenmodell zusammengefasst, das unter Zuhilfenahme computergesteuerter Fertigungsmaschinen (u. a. 3D-Drucker) in ein physisches Modell oder ein Bauteil umgesetzt wird.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.
Das Ziel des Beitrags besteht darin, jene Formelideale in der Mathematik und in der Ökonomik zu identifizieren, um anschließend Überlegungen darüber anzustellen, auf welche Art und Weise diese Ideale den logischen Spielraum der Problemlösung erweitern oder einengen. Ganz entscheidend hierfür ist das Verhältnis von Internalitäten und Externalitäten; also ob bzw. welche Umweltbezüge in der Formelsprache eingeschlossen oder ausgeschlossen werden. Die Analyse erfolgt aus wissenssoziologischer Perspektive, die die mathematische, mit Blick auf die Ökonomik vorsichtiger formuliert: die pseudo-mathematische Formelsprache als eine spezifische Semantik versteht. Hierbei handelt es sich nicht nur um eine Semantik, die sich der durch die gesellschaftliche Differenzierung ausgelösten Komplexitätssteigerung anpasst. Die Evolution der mathematischen und wirtschaftswissenschaftlichen Semantik befolgt zudem, so meine These, paradigmatische Ideale, die in den spezifischen Disziplinen angelegt sind. Dies spiegelt sich in der Art und Weise wider, wie in den jeweiligen Disziplinen auf mathematisch-kalkulatorischer Modellebene einerseits eine Geschlossenheit und Binnenreferenzialität des Formelhorizonts und andererseits eine Projektionsfläche für die Entdeckung von Zusammenhängen und das Auffinden formaler Muster generiert wird. Die Ausgangsannahme im Hinblick auf die Ökonomik ist, dass auch die Operationsweise ökonomischer Modelle, insofern sie auf mathematischer Grundlage gebildet werden, auf einer Binnenreferenzialität beruht. Die Stringenz solcher Modellierungen wird gerade deswegen zum vorherrschenden Gütekriterium, weil sie nicht nur jegliche Externalitäten im Sinne einer Irritation des formalen Modells ausschließt, sondern zugleich Beobachtungseffekte durch Sinnüberschüsse ermöglicht, die durch eine Entdeckung formaler Muster aktualisiert werden. Im ersten Schritt wird hierzu das Formelideal der reinen Mathematik auf der Grundlage wissenssoziologischer Überlegungen und mathematischer Selbstreflexionen herausgearbeitet. Daran anschließend wird das Formelideal pseudo-mathematischer Modelle in der Ökonomik untersucht. Die Basis bilden vor allem William Stanley Jevons' und Alfred Marshalls wegweisende Überlegungen zur Mathematisierung der Ökonomik. Die Beobachtungen werden abschließend auf den Aspekt des Erweiterns oder Einengens des logischen Spielraums zur Problemlösung in der Mathematik und der Ökonomik hin zugespitzt.
Die naturwissenschaftlichen Diskurse des 19. Jahrhunderts sprachen neben den 'Bildern' von einer ganzen Reihe weiterer Dinge, welche Wissensgegenstände repräsentieren konnten, auch ohne Modelle im damaligen Sinn zu sein. Weite Verbreitung fanden im 19. Jahrhundert in dieser Funktion insbesondere die Begriffe der 'Analogien', 'Interpretationen' und der 'Systeme' von wirklichen oder gedachten Dingen. Die Beispiele, die mit solchen Begriffen verbunden waren, sind häufig für die Wissenschaftsentwicklung von substanzieller Bedeutung gewesen. Sie stehen aber, wie ich im Folgenden andeuten möchte, für ganz unterschiedliche Formen und Funktionen der abstrakten Repräsentation. Den Begriff 'abstrakte Repräsentation' verwende ich hierbei etwas vage und naiv als schlichten Oberbegriff für verschiedene Weisen, einen Komplex von wissenschaftlich interessierenden Dingen oder Sachverhalten durch etwas anderes darzustellen und für die wissenschaftliche Praxis zu thematisieren, ohne dabei auf materielle, anfassbare Dinge zurückzugreifen, wie dies die 'Modelle' in der Sprache des 19. Jahrhunderts taten. Zugleich soll dadurch ('pace' Wittgenstein und unangesehen der inflationären Verwendung des Modellbegriffs seit Mitte des 20. Jahrhunderts) vermieden werden, vorschnell von einem 'Denken in Modellen' zu reden. Wir werden noch sehen, dass die in Rede stehenden, abstrakten Repräsentationen bisweilen sehr konkrete epistemische Funktionen hatten. Das Wort 'abstrakt' sollte hier also nicht überbewertet werden. Insbesondere möchte ich im Folgenden jeweils die spezifische 'epistemische Situation' charakterisieren, d.h. die Besonderheiten der Wissensumstände, in welchen der Rückgriff auf eine Form der abstrakten Repräsentation geschah und den Beteiligten vielversprechend erschien.
Es ist ein Gegenstand andauernder Diskussionen, wie der Strukturalismus, der im Werk von Claude Lévi-Strauss vielleicht seine aufregendste und theoretisch ambitionierteste Ausprägung gefunden hat, sich zum Modell verhält. Während Marcel Hénaff betont hat, dass der Strukturalismus von Lévi-Strauss ohne eine Klärung des Modell-Begriffs kaum verstanden werden könne, hat Robert Matthias Erdbeer am Beispiel des französischen Ethnologen zuletzt das Fehlen einer strukturalistischen Modelltheorie beklagt: "Man kann hier einen echten Theorieverlust, ja Theorieverzicht beklagen, wenn man konstatiert, dass am Beginn der strukturalen Theoriebildung nicht die Strukturen stehen, sondern das Modell. Modelle, so die überraschende Erkenntnis, sind das epistemische Arkanum, das verdeckte Andere des strukturalen Theoriedesigns." Aus der Perspektive der Modelltheorie literarischer Texte, die Erdbeer in hoch anregender Weise ausgearbeitet hat, ist diese Diagnose nachvollziehbar. Jedoch sollte sie nicht in den Hintergrund geraten lassen, dass der Modell-Begriff von Lévi-Strauss, so ungenügend er sich zur Lösung aktueller theoretischer Fragestellungen erweisen mag, aus historischer Sicht überaus aufschlussreich ist, ja dass er gerade auch in seinen Unschärfen, Schwierigkeiten und Dunkelheiten Auskunft darüber gibt, wie sich die strukturale Analyse im wissenschaftlichen Feld ihrer Zeit positioniert und an welche wissenschaftlichen Traditionen sie anschließt. In den folgenden Ausführungen wird der Modell-Begriff bei Lévi-Strauss deshalb noch einmal in den Blick genommen. Im Anschluss an Hénaff soll dabei vor allem an zwei Diskussionsfeldern gezeigt werden, dass die Auseinandersetzung mit Modellen insofern ins Herz der strukturalen Analyse führt, als Lévi-Strauss Modelle sowohl von der Struktur als auch von den konkreten Ereignissen her denkt und sie immer wieder als Vermittler von Struktur und Ereignis positioniert. Hierfür wird zunächst rekonstruiert, wie Lévi-Strauss das Modell im Zusammenhang von Reflexionen zur Ethnologie und deren Rolle im Gefüge der Wissenschaften behandelt - in den Mittelpunkt werden dabei die Begriffe des 'mechanischen Modells' und des 'statistischen Modells' rücken. Danach wird betrachtet, wie er das Modell in das 'Das wilde Denken' ins Zentrum seiner ästhetischen Theorie stellt und die Kunst hier als 'verkleinertes Modell' konzipiert, bevor abschließend zumindest umrissen werden soll, in welche wissenschaftliche Tradition sich Lévi-Strauss mit seinen Erörterungen zu Modellen stellt.
In einem 2015 veröffentlichten Ranking des populären Wissenschaftsportals 'postnauka' wurde in der Rubrik "die fünf wichtigsten Bücher zur intellectual history" Reinhart Kosellecks Monographie 'Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten' vorgestellt. Der Autor Ivan Boldyrev bezeichnete den Band als eines der Grundlagenwerke der deutschen Begriffsgeschichte und hob auf die Leistungsfähigkeit der historischen Semantik ab. Dass ein deutschsprachiges Buch auf die Liste kam, stellt eine große Ausnahme dar. Deutsche Titel erscheinen in diesen Rankings ansonsten nur, wenn sie in russischer Übersetzung vorliegen. Eine intensive Rezeption der Begriffsgeschichte Reinhart Kosellecks und seiner Arbeiten zu Zeitstrukturen setzte bereits vor über zehn Jahren ein. 2004 beendete der Historiker Aleksandr Dmitriev einen Überblicksartikel zur 'Intellectual History' mit der Ankündigung, dass der Moskauer Verlag 'Novoe literaturnoe obozrenie' (Neue literarische Umschau) in seinen Zeitschriften und Büchern das Thema zunächst am Beispiel der Begriffsgeschichte Reinhart Kosellecks verfolgen werde. Bereits zwei Jahre später, 2006, konstatierte Nikolaj Koposov, der Gründungsdekan des 'Smolny College of Liberal Arts and Sciences' in Sankt Petersburg, über Begriffsgeschichte werde viel diskutiert, der Ansatz selbst aber von russischen Kollegen bzw. an russischem Material nur wenig praktiziert. Mittlerweile hat sich einiges in diesem Forschungsfeld getan. Es liegen erste Übersetzungen der theoretischen Arbeiten Kosellecks sowie neun Artikel aus den 'Geschichtlichen Grundbegriffen' in russischer Sprache vor. Auch die Zahl von empirischen und theoretischen Arbeiten zur russischen Begriffsgeschichte wächst. Die Rezeption der deutschen Begriffsgeschichte und der Arbeiten Reinhart Kosellecks erfolgt - so die einhellige Meinung von russischen Autoren - im Zuge der wissenschaftlichen Neuorientierung in postsowjetischer Zeit und der Suche nach Parametern für die Forschung. Damit verbunden indet eine Internationalisierung und Öffnung der Geisteswissenschaften nach außen statt, d.h. es erfolgt eine intensivere Rezeption internationaler Historiographien und eine verstärkte Kooperation mit ausländischen Kollegen. Spezifisch für dieses Forschungsfeld ist die gleichzeitige bzw. gemeinsame Rezeption der Begriffsgeschichte bei Historikern, Philosophen, Linguisten, Soziologen und Politologen. Im Folgenden sollen die wichtigsten Institutionen, Veranstaltungen, Kooperationen und Publikationen vorgestellt und die inhaltlichen Schwerpunkte und Spezifika der russischen Rezeption Kosellecksche Arbeiten aufgezeigt werden.
Im spanischsprachigen Raum wird immer noch oft zwischen philosophischer und historiographischer Begriffsgeschichte unterschieden. Allerdings führen beide Richtungen seit einigen Jahren einen fruchtbaren Dialog miteinander. Damit schließen sie in gewisser Weise an eine Forderung Reinhart Kosellecks an. Nach seiner Einschätzung kann die "Fortführung oder Revision der Begriffsgeschichte" von "deren philosophiegeschichtlichen Wurzeln und Varianten" nicht absehen. Die von Koselleck benannte Theoriebedürftigkeit der Geschichtswissenschaft, damals noch umstritten, ist zu einer Art Evidenz geworden. Daher kann ein kleiner Exkurs zur editorischen Wirkungsgeschichte Kosellecks in Spanien und Iberoamerika aufschlussreich sein.
The reception of Reinhart Koselleck's oeuvre in Scandinavia has not been unified. This differences are due in part to the different languages and the rather different academic cultures in the Nordic countries. While German is widely read and understood in Denmark, it is less popular in Finland, Norway, and Sweden. The need for translations and mediation through other languages differs from country to country, which makes a common Nordic reception hard to assess. Moreover, the scholars who have been instrumental in the reception and elaboration of Koselleck's thought have not typically worked within a single, delineated national space, making the notion of national receptions itself difficult to defend. This trouble with national and regional reception might even lead one to ask if the foundation of the History of Political and Social Concepts Group (known since 2012 as the History of Concepts Group) at the Finnish Institute in London in 1998 was a specifically Finnish endeavor or a Nordic one. Although the meeting was co-initiated by Kari Palonen and hosted by Henrik Stenius, the director of the Institute at the time, the group’s outlook was from the very beginning an international one. Similarly confounding are the conditions surrounding the only intellectual biography about Koselleck to date. It was written by the Danish scholar Niklas Olsen as his PhD thesis at the European University Institute and later published as a book by an American publishing house. In this respect, it can hardly be seen as a distinctly Danish or Scandinavian effort. Still, there has been a strong Scandinavian element within the international reception of Koselleck and 'Begriffsgeschichte'. As a result, scholars have produced translations of Koselleck's writings, publications inspired by his 'Geschichtliche Grundbegriffe', and theoretical projects that attempt to expand the limits of conceptual history. Institutionally, conceptual history has been very visible in the Nordic countries. The History of Concepts Group has held conferences in Copenhagen (2000), Tampere (2001), Uppsala (2006), and Helsinki (2012). The international summer school in conceptual history took place in Helsinki (2005–2012) and since then has convened in Aarhus and Copenhagen. By contrast, the irst conference in Germany did not take place until 2014 in Bielefeld.
Koselleck in Italien
(2015)
Das Werk Reinhart Kosellecks ist in Italien im Rahmen der Historiographie, der Theorie der Geschichte, der Philosophie und der Politikwissenschaft relativ bekannt. Im italienischen Sprachraum haben seine Theorie historischer Zeiten, seine begriffsgeschichtliche Methode und seine Historik eine weite Verbreitung erreicht. Etwas weniger bekannt sind seine Aufsätze zur politischen Ikonologie. Die Übersetzung der Schriften Kosellecks in die italienische Sprache begann erst in den 1970er Jahren. So wurde 1972 'Kritik und Krise', 1986 'Vergangene Zukunft', 1988 das Buch über Preußen, 1990 'Hermeneutik und Historik' und 1992 'Das Zeitalter europäischer Revolution 1780–1848' übersetzt. Die 'Studien zum Beginn der modernen Welt' erschienen im Jahre 1997 in einer italienischen Ausgabe. 2009 wurde eine Teilausgabe der 'Begriffsgeschichten' im Italienischen veröffentlicht. Außerdem sind mehrere Artikel Kosellecks aus den 'Geschichtlichen Grundbegriffen' (1991 'Fortschritt', 1993 'Demokratie', 2009 'Geschichte', 2012 'Krise') und einige Aufsätze ('Concepts of Historical Time and Social History' (1980), 'Das achtzehnte Jahrhundert als Beginn der Neuzeit' (1987), 'Die Transformation der politischen Totenmale im 20. Jahrhundert' (2002)) übersetzt worden. Koselleck wird in Italien meist als Begriffshistoriker wahrgenommen und ist für das italienische Publikum der wahrscheinlich bekannteste Vertreter der deutschen Begriffsgeschichte.
Folgt man einem Eintrag in einer der meistbenutzten Online-Enzyklopädien, dann gehört Reinhart Koselleck in Frankreich zu den bekanntesten deutschen Historikern des 20. Jahrhunderts. Eine vergleichsweise lange Liste von Übersetzungen und kritischen Beiträgen bekräftigt dieses Urteil und unterstreicht zugleich die spezifischen Interessengebiete, die für die französische Rezeption Kosellecks wichtig wurden. Sie reichen von der Sozial- und Begriffsgeschichte über die Geschichte von Recht und Gerechtigkeit bis zu Problemen der Erinnerungskultur und der Theorie der Geschichte. Vor allem in den letzten zwei Jahrzehnten des 20. Jahrhunderts erschien eine Reihe von Übersetzungen wesentlicher Beiträge Kosellecks zu diesen Themen ins Französische. Dass sich diese Periode mit einer Phase intensiver methodologischer und theoretischer Auseinandersetzungen unter französischen Historikern deckte, war für die Art und Weise, in der Kosellecks Arbeiten aufgenommen und diskutiert wurden, keineswegs unwichtig. Zeitweilig erwuchs daraus ein Dialog, der auf beiden Seiten des Rheins eine ganze Generation junger Historiker einschloss.
Purpose: A study of real-time adaptive radiotherapy systems was performed to test the hypothesis that, across delivery systems and institutions, the dosimetric accuracy is improved with adaptive treatments over non-adaptive radiotherapy in the presence of patient-measured tumor motion.
Methods and materials: Ten institutions with robotic(2), gimbaled(2), MLC(4) or couch tracking(2) used common materials including CT and structure sets, motion traces and planning protocols to create a lung and a prostate plan. For each motion trace, the plan was delivered twice to a moving dosimeter; with and without real-time adaptation. Each measurement was compared to a static measurement and the percentage of failed points for γ-tests recorded.
Results: For all lung traces all measurement sets show improved dose accuracy with a mean 2%/2 mm γ-fail rate of 1.6% with adaptation and 15.2% without adaptation (p < 0.001). For all prostate the mean 2%/2 mm γ-fail rate was 1.4% with adaptation and 17.3% without adaptation (p < 0.001). The difference between the four systems was small with an average 2%/2 mm γ-fail rate of <3% for all systems with adaptation for lung and prostate.
Conclusions: The investigated systems all accounted for realistic tumor motion accurately and performed to a similar high standard, with real-time adaptation significantly outperforming non-adaptive delivery methods.
Die besondere sprachliche und gesellschaftliche Situation in der Türkei bedingt, dass sich dort die Voraussetzungen für die Beschäftigung mit Begriffsgeschichte grundlegend von denen in anderen Ländern unterscheiden. In den Atatürk'schen Reformen seit den späten 1920er Jahren wurde auch die Sprache zum Ziel staatlicher Eingriffe: Der arabische und persische Wortschatz sowie Fremdwörter aus europäischen Sprachen sollten durch "genuin türkische" ('Öz Türkçe', etwa: 'das eigentliche, reine Türkisch') Wörter ersetzt werden, die entweder aus anderen Turksprachen entlehnt oder neu geschaffen werden sollten. Über Jahrzehnte hinweg wurde über Wörter und ihre Gestalt heftig gestritten, und die politische Gesinnung eines Menschen konnte lange Zeit auch an dem Wortschatz festgemacht werden, den er gebrauchte. Dies hatte und hat auch Konsequenzen für Begriffe und ihre Geschichte in der Türkei. So ist es im akademischen Diskurs der Türkei gängige Praxis, Begriffe aus den europäischen Sprachen ins Türkische zu übersetzen, wobei die türkischen Begriffe sowohl von den Autoren als auch von den Lesern als Übersetzungen der entsprechenden Begriffe in den Originalsprachen wahrgenommen werden. Kommen begriffsgeschichtliche Fragen ins Spiel, so interessiert man sich dann meist nicht für die Geschichte der türkischen Übersetzung, sondern für die des ursprünglichen Begriffs. Ein weiterer wichtiger Aspekt ist die Tatsache, dass "Klassiker" der sozialwissenschaftlichen und philosophischen deutsch-, englisch- und französischsprachigen Literatur relativ schnell auch ins Türkische übersetzt werden, wobei sich begriffliche Fragen gewissermaßen von selbst einstellen.
BACKGROUND: Polyclonal anti-thymocyte globulins (ATGs) are immunosuppressive drugs widely used in induction of immunosuppression and treatment of acute rejection after solid organ transplantation. We have previously demonstrated that ATGs bind to endothelial cells in vitro, and are able to modulate ECs. The aim of this study was to investigate the binding of ATGs to endothelial cells under in vivo conditions.
MATERIAL AND METHODS: Muscle biopsies from extremities of cynomolgus monkeys were obtained after ischemia/reperfusion at 4°C. ATGs (Thymoglobulin, Sanofi-Aventis, France; 1 mg/kg) were added to the blood 30 min prior to the reperfusion. Biopsies (n=10) of patients undergoing heart transplantation and preoperatively treated with ATGs (Thymoglobulin, Sanofi-Aventis, France; 1.5 mg/kg) as induction therapy were also analyzed 6 hours and 7 days after induction. Binding of ATGs to ECs was analyzed with an anti-rabbit IgG antibody by means of immunohistochemistry.
RESULTS: Binding of ATGs to endothelial cells could be demonstrated in vivo in our animal experiments 4 hours after reperfusion, as well as in the clinical biopsies 6 hours after induction of immunosuppression in heart transplant patients, showing a preferred localization in post-capillary veins. No expression of ATGs on the endothelial surface could be observed after 7 days, suggesting that ATGs may be washed out from the endothelial surface in a time-dependent manner.
CONCLUSIONS: Our results show that ATGs are able to bind to endothelial cells in an experimental model and in clinical practice, supporting preconditioning strategies with ATGs in solid organ transplantation.
Introduction: In the time of increasing resistance and paucity of new drug development there is a growing need for strategies to enhance rational use of antibiotics in German and Austrian hospitals. An evidence-based guideline on recommendations for implementation of antibiotic stewardship (ABS) programmes was developed by the German Society for Infectious Diseases in association with the following societies, associations and institutions: German Society of Hospital Pharmacists, German Society for Hygiene and Microbiology, Paul Ehrlich Society for Chemotherapy, The Austrian Association of Hospital Pharmacists, Austrian Society for Infectious Diseases and Tropical Medicine, Austrian Society for Antimicrobial Chemotherapy, Robert Koch Institute.
Materials and methods: A structured literature research was performed in the databases EMBASE, BIOSIS, MEDLINE and The Cochrane Library from January 2006 to November 2010 with an update to April 2012 (MEDLINE and The Cochrane Library). The grading of recommendations in relation to their evidence is according to the AWMF Guidance Manual and Rules for Guideline Development.
Conclusion: The guideline provides the grounds for rational use of antibiotics in hospital to counteract antimicrobial resistance and to improve the quality of care of patients with infections by maximising clinical outcomes while minimising toxicity. Requirements for a successful implementation of ABS programmes as well as core and supplemental ABS strategies are outlined. The German version of the guideline was published by the German Association of the Scientific Medical Societies (AWMF) in December 2013.
Background: Baker’s yeast, Saccharomyces cerevisiae, as one of the most often used workhorses in biotechnology has been developed into a huge family of application optimised strains in the last decades. Increasing numbers of strains render their characterisation highly challenging, even with the simple methods of growth-based analytics. Here we present a new sensor system for the automated, non-invasive and parallelisable monitoring of biomass in continuously shaken shake flask cultures, called CGQ (“cell growth quantifier”). The CGQ implements a dynamic approach of backscattered light measurement, allowing for efficient and accurate growth-based strain characterisation, as exemplarily demonstrated for the four most commonly used laboratory and industrial yeast strains, BY4741, W303-1A, CEN.PK2-1C and Ethanol Red.
Results: Growth experiments revealed distinct carbon source utilisation differences between the investigated S. cerevisiae strains. Phenomena such as diauxic shifts, morphological changes and oxygen limitations were clearly observable in the growth curves. A strictly monotonic non-linear correlation of OD600 and the CGQ’s backscattered light intensities was found, with strain-to-strain as well as growth-phase related differences. The CGQ measurements showed high resolution, sensitivity and smoothness even below an OD600 of 0.2 and were furthermore characterised by low background noise and signal drift in combination with high reproducibility.
Conclusions: With the CGQ, shake flask fermentations can be automatically monitored regarding biomass and growth rates with high resolution and parallelisation. This makes the CGQ a valuable tool for growth-based strain characterisation and development. The exceptionally high resolution allows for the identification of distinct metabolic differences and shifts as well as for morphologic changes. Applications that will benefit from that kind of automatized biomass monitoring include, amongst many others, the characterization of deregulated native or integrated heterologous pathways, the fast detection of co-fermentation as well as the realisation of rational and growth-data driven evolutionary engineering approaches.
Background: Histone lysine demethylases (KDMs) are of interest as drug targets due to their regulatory roles in chromatin organization and their tight associations with diseases including cancer and mental disorders. The first KDM inhibitors for KDM1 have entered clinical trials, and efforts are ongoing to develop potent, selective and cell-active ‘probe’ molecules for this target class. Robust cellular assays to assess the specific engagement of KDM inhibitors in cells as well as their cellular selectivity are a prerequisite for the development of high-quality inhibitors. Here we describe the use of a high-content cellular immunofluorescence assay as a method for demonstrating target engagement in cells.
Results: A panel of assays for the Jumonji C subfamily of KDMs was developed to encompass all major branches of the JmjC phylogenetic tree. These assays compare compound activity against wild-type KDM proteins to a catalytically inactive version of the KDM, in which residues involved in the active-site iron coordination are mutated to inactivate the enzyme activity. These mutants are critical for assessing the specific effect of KDM inhibitors and for revealing indirect effects on histone methylation status. The reported assays make use of ectopically expressed demethylases, and we demonstrate their use to profile several recently identified classes of KDM inhibitors and their structurally matched inactive controls. The generated data correlate well with assay results assessing endogenous KDM inhibition and confirm the selectivity observed in biochemical assays with isolated enzymes. We find that both cellular permeability and competition with 2-oxoglutarate affect the translation of biochemical activity to cellular inhibition.
Conclusions: High-content-based immunofluorescence assays have been established for eight KDM members of the 2-oxoglutarate-dependent oxygenases covering all major branches of the JmjC-KDM phylogenetic tree. The usage of both full-length, wild-type and catalytically inactive mutant ectopically expressed protein, as well as structure-matched inactive control compounds, allowed for detection of nonspecific effects causing changes in histone methylation as a result of compound toxicity. The developed assays offer a histone lysine demethylase family-wide tool for assessing KDM inhibitors for cell activity and on-target efficacy. In addition, the presented data may inform further studies to assess the cell-based activity of histone lysine methylation inhibitors.
Die Rezeption von Kosellecks Konzeption der Begriffsgeschichte in Polen begann Anfang der 1990er Jahre auf Umwegen und als Resultat von Zufällen. Die Tatsache, dass der polnische Philosoph Krzysztof Michalski (1948–2013), der Direktor des Wiener 'Instituts für die Wissenschaften vom Menschen', die Ergebnisse der vom ihm organisierten Castelgandolfo-Gespräche nicht nur im deutschen Original, sondern ab 1990 auch in Polen herausgab, führte dazu, dass auch drei Vorträge Kosellecks in polnischer Übersetzung erschienen. Da Koselleck in zweien seiner Vorträge mit 'Krise' und 'Emanzipation' die Geschichte von Begriffen behandelte, die er auch in den 'Geschichtlichen Grundbegriffen' (GG) erörtert hatte, gelangten auf dem Umweg der Castelgandolfo-Sammelbände erstmals Texte Kosellecks zur Begriffsgeschichte in den akademischen Diskurs in Polen. Auch in seinem dritten Castelgandolfo-Vortrag, in dem es um die Möglichkeit eines auf der historischen Semantik basierenden Vergleichs bürgerlicher Gesellschaften ging, hatte Koselleck weiterreichende Konsequenzen der Begriffsgeschichte behandelt. In den 1990er Jahren selbst erfuhren die genannten Texte in Polen allerdings noch kaum Beachtung. Dies sollte sich erst 2001 ändern, als der Germanist Hubert Orłowski in der von ihm verantworteten 'Posener Deutschen Bibliothek' (Poznańska Biblioteka Niemiecka) einen Sammelband mit vom ihm ausgewählten Aufsätzen Kosellecks zur historischen Semantik herausgab, der im Wesentlichen auf dessen Band 'Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten' (1979) basierte, allerdings um die Einleitung zu den GG und weitere Texte ergänzt worden war.
Die offensichtlichen Ähnlichkeiten zwischen Neurasthenie und Burnout dürfen den wissenschaftlichen Blick jedoch nicht dazu verleiten, vorschnell von einer substantiellen Identität auszugehen. Es ist keineswegs gleichgültig, unter welchem Namen ein Leiden amtiert. Vielmehr gehe ich davon aus, dass die Etablierung eines neuen Begriffs ein Ereignis ist, das genauer in den Blick genommen zu werden verdient, weil es auf eine veränderte Problemlage hinweist. Die Frage lautet also, wie genau sich das Verhältnis zwischen Neurasthenie und Burnout darstellt, was diese beiden Begriffe trennt und verbindet, welche semantischen Bedeutungsebenen sich in ihnen jeweils abgelagert haben und welche Rückschlüsse sich aus der Untersuchung dieser Bedeutungsschichten für das Verständnis unserer Gegenwart möglicherweise ziehen lassen. Der erste Schritt einer solchen Fragestellung muss immer darin bestehen, die Phänomene gegeneinander zu legen und sie auf ihre Gemeinsamkeiten und Unterschiede hin zu untersuchen, um auf dieser Grundlage eine schärfere Kontur ihrer Besonderheiten zu erlangen - was im Folgenden geschehen soll.
Das Thema der Entstehung der modernen Welt steht im Zentrum des Interesses Reinhart Kosellecks, sowohl in Bezug auf die historische Semantik der politischen Begriffe, als auch bezüglich der sozialen Veränderungen der gesellschaftlichen Strukturen. Kosellecks Begriffsgeschichte geht es darum, den "Umwandlungsprozess zur Moderne" zu zeigen, wie er sich in der Verwendung der politischen Sprache ereignet. Mit der Theorie historischer Zeiten entwickelt Koselleck eine eigene Theorie der Entstehung der Neuzeit, die die Absicht hat, die spezifischen und charakteristischen Merkmale der modernen Welt und ihrer Zeitlichkeit durch die Darstellung der Beziehung zwischen den Erfahrungsräumen und den Erwartungen zu beschreiben. In seiner Doktorarbeit hat Koselleck die Diagnose über den Beginn der modernen Welt auf die Beziehung zwischen aufklärerischer Kritik und politischer Krise zurückgeführt; 1959 wurde die Doktorarbeit verbessert und veröffentlicht. Nun wird die Genese der modernen Welt zur "Pathogenese der bürgerlichen Welt", also vor allem im Sinne einer Krankheit verstanden: die Krise der Moderne entspricht also einer Pathologie. Der Horizont des strukturellen Verhältnisses zwischen der Neuzeit und der Krise bleibt auch in den folgenden Schriften das Thema Kosellecks, wenn er sich mit der historischen Zeitlichkeit beschäftigt. Das Ziel dieses Aufsatzes besteht darin, diese Beziehung zu rekonstruieren, und zwar darzustellen, wie Koselleck den auf den semantischen Raum der Krankheit und der Pathologie verweisenden Krisenbegriff als diagnostische und prognostische Kategorie verwendet, um die spezifische Natur der historischen Wandlung zur modernen Welt festzulegen.
The amyloid precursor protein (APP) was discovered in the 1980s as the precursor protein of the amyloid A4 peptide. The amyloid A4 peptide, also known as A-beta (Aβ), is the main constituent of senile plaques implicated in Alzheimer’s disease (AD). In association with the amyloid deposits, increasing impairments in learning and memory as well as the degeneration of neurons especially in the hippocampus formation are hallmarks of the pathogenesis of AD. Within the last decades much effort has been expended into understanding the pathogenesis of AD. However, little is known about the physiological role of APP within the central nervous system (CNS). Allocating APP to the proteome of the highly dynamic presynaptic active zone (PAZ) identified APP as a novel player within this neuronal communication and signaling network. The analysis of the hippocampal PAZ proteome derived from APP-mutant mice demonstrates that APP is tightly embedded in the underlying protein network. Strikingly, APP deletion accounts for major dysregulation within the PAZ proteome network. Ca2+-homeostasis, neurotransmitter release and mitochondrial function are affected and resemble the outcome during the pathogenesis of AD. The observed changes in protein abundance that occur in the absence of APP as well as in AD suggest that APP is a structural and functional regulator within the hippocampal PAZ proteome. Within this review article, we intend to introduce APP as an important player within the hippocampal PAZ proteome and to outline the impact of APP deletion on individual PAZ proteome subcommunities.
Background: Infection is a main cause of morbidity and mortality after heart surgery, with multi-resistant pathogens increasingly representing a challenge. Daptomycin provides bactericidal activity against gram-positive organisms that are resistant to standard treatment including vancomycin.
Methods: A cohort of cardiac surgical patients, treated with daptomycin for major infection at two tertiary care centers, were retrospectively studied with a particular focus on the type of infection, causative pathogens and co-infections, daptomycin dosage, adverse events and outcome in order to provide evidence for the efficiency and safety of daptomycin in a distinct high-risk patient population.
Results: Sixty-five patients (87.7 % males, 60.4 ± 13.5 years) who had undergone aortic surgery (20.0 %), ventricular assist device (VAD) implantation (21.5 %), combined procedures (21.5 %), coronary artery bypass grafting (12.3 %), isolated valve surgery (15.4 %) and heart transplantation (7.7 %) were diagnosed with catheter-related infection (26.1 %), valve endocarditis (18.8 %), sternal wound (13.0 %), VAD-associated (11.6 %), cardiac implantable electrophysiological device (CIED)-associated (4.1 %), respiratory tract (4.3 %), bloodstream (4.3 %) and other infection (4.3 %). In 13.0 %, no focus of infection was identified though symptoms of severe infection were present. The most frequent pathogens were Staphylococcus epidermidis (30.4 %), Staphylococcus aureus (23.1 %) and Enterococcus species (10.1 %). Daptomycin doses ranging from 3 mg/kg every 48 h to 10 mg/kg every 24 h were administered for 15.4 ± 11.8 days. 87.0 % of the cases were classified as success, 7.2 % as treatment failure and 5.8 as non-evaluable. Adverse events were limited to one case of mild and one case of moderate neutropenia with recovery upon termination of treatment.
Conclusion: Daptomycin proved safe and effective in major infection in high-risk cardiac surgical patients.
A small collection of Odonata from Nuku Hiva Island, Marquesas Islands is presented. It adds Anax guttatus as a new species to this oceanic group. Hemicordulia sp. nov. is reported, but not described because the same species has been sampled before and is pending a formal description. A short taxonomic discussion on observed morphological similarity of male anal appendages in taxa presently assigned to Amorphostigma, Hivaagrion and Ischnura east of New Caledonia is provided. Important considerations for biogeography of the Pacific Odonata are discussed too.
New data on Odonata of the Guadalcanal Island, Solomon Islands are provided following a recently completed Rapid Biodiversity Assessment of the Tetena Haiaja ridge. Two new species, Lieftinckia ulunorum and Procordulia valevahalo are described.
The first is a new member of the Solomon Islands endemic genus while the second is a new genus for the country and the second validated species from the Corduliidae family known from this Pacific archipelago. As L. ulunorum is found to be very closely related to formerly known L. lairdi Lieftinck, 1963, which was also collected during the field trip, both are described in detail based on mature adults and teneral specimens. Comparison with L. salomonis Kimmins, 1957 (investigated only from figures published in the original species description) and Salomoncnemis gerdae Lieftinck, 1987 (also sampled during this study) were provided as well.
Additional morphological data is given on the following species: Teinobasis bradleyi Kimmins, 1957, female is illustrated here for the first time; Anax sp. cf. gibbosulus, second record of the genus for the country and Gynacantha amphora Marinov & Theischinger, 2012, originally described by a single male, here the description of the female is provided.
All other species collected during the field trip will be published separately in the final expedition report.
The results of a short collecting trip to Perlis in the northwest
of Peninsular Malaysia are reported. Eighty three species were collected, at least 61 of these are new records for the state, and three species are recorded from Malaysia for the first time: Euphaea
masoni Selys, 1879, Archibasis oscillans (Selys, 1877) and Paracercion calamorum (Ris, 1916). A checklist of the Odonata recorded from Perlis is given in an appendix.
This PhD thesis has been carried out within an interdisciplinary cooperational project between the Deutsches Bergbau-Museum Bochum and the Goethe-Universität Frankfurt, which is dedicated to ancient Pb-Ag mining and metal production in the hinterland of the municipium Ulpiana in central Kosovo. Geochemical analysis (OM, XRD, EMP, MC-ICP-MS) of ores, metallurgical (by-) products and metal artefacts allowed to reconstruct the local chaîne opératoire and to decipher significant chronological differences between presumably Roman/late antique and medieval/early modern metallurgical processing. Pb isotope provenance studies documented the relevance of local metal production within the Roman Empire and confirmed the actual existence of a Metalla Dardanica district, which until now solely has been suspected on basis of epigraphy.
The predominant abundance of the by-products matte (Cu, Pb, Fe and Zn sulphides) and speiss (ferrous speiss: Fe-As compounds; base metal speiss: ~(Cu,Ni,Fe,Ag )x(Sb,Sn,As )y ) at smelting sites with a preliminary Roman/late antique dating points to treatment of complex polymetallic ore. Pb isotope analysis demonstrated that the mining district of Shashkoc-Janjevo (partially) supplied six of the ten investigated metallurgical sites. In this mineralisation, parageneses with elevated Cu, As and Sb abundances comprise significant proportions of particularly tennantite-tetrahedrite minerals, chalcopyrite, arsenopyrite and were generated during the early and main stages of ore formation. Later precipitated ore in contrast is marked by a significantly less versatile mineralogy and consists almost exclusively of galena, sphalerite and pyrite/marcasite. Besides increased Cu, As and Sb contents, ore from the main formation stage also exhibits generally higher Ag abundances, which are mainly hosted by fahlore and locally abundant secondary Cu sulphides (chalcocite, digenite and covellite) and oxidised phases (e.g. malachite, azurite). The higher precious metal grades of this ore type, whose geochemical signature (i.e. higher proportions of Cu, As and Sb) is mirrored by the abundance of the metallurgical by-products matte and speiss (almost exclusively found at potentially Roman/late antique smelting sites; see above), presumably were a pivotal factor leading to its preferential exploitation in earlier times. Matte and base metal-rich speiss contain notable amounts of Ag, which are mainly present in Cu-(Fe) sulphides and particularly antimonides ((Cu,Ni)2Sb, Ag3Sb), respectively. While the speiss compounds due to their close association with Pb bullion presumably were cupelled automatically, the metallurgical treatment of matte could not have been proven unambiguously, but overall certainly is highly likely.
The beneficiated ore (i.e. crushed and sorted, potentially also treated by more lavish techniques such as grinding, sieving or wet-mechanical methods) possibly was partially roasted and subsequently together with fluxes and charcoal submitted to the furnaces. The working temperatures approximately ranged between 1100 and 1400 °C. Slags from all presumably Roman/late antique dated and few of their potentially medieval/early modern analogues were produced from smelting of (partially roasted) ore with charcoal and added siliceous material, thus resulting in fayalite-dominant phase assemblages or rarely observed glassy parageneses. Even though several subtypes of fayalite slags have been established on basis of the abundance of Fe-rich oxide phases (i.e. spinel ss and wüstite), late clinopyroxene and the general solidification sequence of the slags, the process conditions (i.e. temperature, fO2, added fluxing agents) must have been widely similar; chemical variations could be explained by varying degrees of interaction of the slag melt with charcoal ash and furnace material. The other investigated metallurgical remains indicate employment of a calcareous flux, which led to formation of Ca-rich olivine-, olivine+clinopyroxene-, clinopyroxene- or melilite-type slags. These types as well as glassy slags were generated at more oxidising conditions outside the fayalite stability field (FMQ buffer equilibrium, cf. Lindsley, 1976) than their olivine-dominant analogues. Conclusions on the furnace construction could be drawn on basis of the typology of the slags, which mostly were tapped into a basin located outside the furnace, but partially (at two presumably medieval/early modern sites) also accumulated in a reservoir within the smelter.
Lead artefacts excavated in Ulpiana could be isotopically related to ores from mineralisations in its vicinity and demonstrate that the resources were at least utilised for local metal production. However, also ship wreck cargo from Israel - including several lead ingots with the inscription 'MET DARD' (Raban, 1999) - and late antique lead-glazed pottery from Serbia and Romania (Walton & Tite, 2010) could be related to a possible Kosovarian/Serbian provenance of the raw material and thus indicate flourishing trade of metal from the Metalla Dardanica district within the Roman Empire.
References:
Lindsley, D. H. (1976). Experimental studies of oxide minerals. In D. Rumble, III (Hrsg.), Oxide minerals (61-88). Reviews in Mineralogy, Volume 3. Washington, DC: Mineralogical Society of America.
Raban, A. (1999). The lead ingots from the wreck site (area K8). Journal of Roman Archaeology, Supplementary Series, 35, 179-188.
Walton, M. S., & Tite, M. S. (2010). Production technology of Roman lead-glazed pottery and its continuance into late antiquity. Archaeometry, 52(5), 733-759.
Records of Odonata collected in the vicinity of the Borneo Highlands Resort on Gunung Penrissen in south western Sarawak in the period 2014-2016 are presented.
Notable records include new species of Telosticta Dow & Orr, 2012, Rhinocypha Rambur, 1842 and Leptogomphus Selys, 1878, as well as the first record of the recently described genus Borneogomphus Karube & Sasamoto, 2014 from Sarawak.
We compare the cost effectiveness of two pronatalist policies:
(a) child allowances; and
(b) daycare subsidies.
We pay special attention to estimating how intended fertility (fertility before children are born) responds to these policies. We use two evaluation tools:
(i) a dynamic model on fertility, labor supply, outsourced childcare time, parental time, asset accumulation and consumption; and
(ii) randomized vignette-survey policy experiments.
We implement both tools in the United States and Germany, finding consistent evidence that daycare subsidies are more cost effective. Nevertheless, the required public expenditure to increase fertility to the replacement level might be viewed as prohibitively high.
We extend the classical ”martingale-plus-noise” model for high-frequency prices by an error correction mechanism originating from prevailing mispricing. The speed of price reversal is a natural measure for informational efficiency. The strength of the price reversal relative to the signal-to-noise ratio determines the signs of the return serial correlation and the bias in standard realized variance estimates. We derive the model’s properties and locally estimate it based on mid-quote returns of the NASDAQ 100 constituents. There is evidence of mildly persistent local regimes of positive and negative serial correlation, arising from lagged feedback effects and sluggish price adjustments. The model performance is decidedly superior to existing stylized microstructure models. Finally, we document intraday periodicities in the speed of price reversion and noise-to-signal ratios.
Stephan Günzel, dem Herausgeber des hier anzuzeigenden 'Lexikons der Raumphilosophie', verdankt die kulturwissenschaftliche Forschung zu Begriff und Metapher des Raumes eine Reihe bedeutsamer Publikationen. Den Auftakt bildete der zusammen mit Jörg Dünne herausgegebene Band 'Raumtheorie' aus dem Jahre 2006, eine klug und umsichtig eingeleitete Auswahl gleichsam kanonischer Texte zu Raum und Räumlichkeit. Diesem Reader trat drei Jahre später ein 'Raumwissenschaften' überschriebener, nunmehr von Günzel alleine verantworteter Band zur Seite, der eine stattliche Anzahl von Einzelbeiträgen verschiedener Autoren unterschiedlichster Disziplinen zusammenbrachte. Der Sammelband gab Einblick in den damaligen Stand kulturwissenschaftlicher Arbeit am Raum; vor allem machte er deutlich, welch hohe Relevanz die Diskussion um Begriff und Metapher des Raumes für die einzelnen Disziplinen und deren aktuelle Forschungsarbeit beanspruchen kann. Auf die Dokumentation der Quellen und den Maßstäbe setzenden Sammelband folgt nun also ein Wörterbuch - zusammen mit den beiden Vorgängerveröffentlichungen bildet das jüngst erschienene 'Lexikon' eine Trilogie des 'spatial turn' im Bereich der deutschsprachigen Forschung.
Zieht man die vergeblichen Versuche der Mediziner und Philosophen in Betracht, eine sowohl praktikable, theoretisch konsistente und ethisch vertretbare Definition von Krankheit zu erarbeiten, wird die Differenz von Krankheitsbegriff und -metapher insgesamt problematisch. Der aktuell gebräuchliche, systemtheoretische Krankheitsbegriff bezieht sich beispielsweise gar nicht mehr auf Lebewesen, sondern auf die Kopplung bio-psycho-sozialer Systeme. Die Bindestriche in diesem Begriff übernehmen gewissermaßen die Funktion der Metapher: den Sprung über Kategoriengrenzen. Wenn Metaphern in den Wissenschaften grundsätzlich keinen guten Ruf genießen, gilt dies insbesondere für Krankheitsmetaphern. Zuletzt ist ihre Bedeutung für die pseudo-medizinische Legitimation und Durchführung des Holocaust umfangreich erforscht worden. Mit dem Paradigmenwechsel von der Hygiene zur Bakteriologie wurden Krankheiten demnach nicht mehr auf äußere Umstände, sondern auf labortechnisch identifizierbare Kontagien zurückgeführt. Diese medizinische 'Visualisierung des Feindes', welche Robert Koch durch die Markierung von Gewebeschnitten mit Annelinfarbe entscheidend voranbrachte, bot zusammen mit der monokausalen und ontologisierenden Erklärung von Krankheiten große metaphorische Anschlussflächen für die (bio-)politischen Diskurse, die sich seit dem 19. Jahrhundert mehr und mehr mit der Sicherung und Steigerung des Lebens beschäftigten.
"Nichts ist variabler als die Bedeutung des Wortes Variabilität", meint Hugo de Vries 1901; und kaum etwas so mutabel wie die des Wortes 'Mutation'. Aber was heißt das schon? Weil wir, so Ludwik Fleck, "fortwährend Zeugen sind, wie 'Mutationen' des Denkstils eintreten"? Fleck führt 1935 die Mutationen ein, als er beschreibt, wie aus "Urideen" moderne Begrifflichkeit entsteht, indem etwa "[m]it einem Mal [...] unklar [wurde], was Art, was Individuum sein soll [...]." Sein wissensgeschichtlicher Bezug auf den seinerzeit bereits biologisch ausgewiesenen Begriff konzediert jedoch selbst einen Denkstil, demnach Erkenntnisse der Wissenschaften vom Leben, namentlich der Mutationstheorie, dazu taugen, kulturelle Entwicklungen zu kennzeichnen. Damit steht er freilich seinerzeit nicht allein. Soziologen, Historiker, Anthropologen, Literaturwissenschaftler und eben auch historische Epistemologen hatten sich dem Begriff der Mutation bereits massiv zugewandt. Maßgeblich nach Hugo de Vries' 'Die Mutationstheorie' (1901/1903) kehren plötzliche Wandlungen in der Konzeption von längeren Entwicklungsverläufen vermehrt in die Natur- und Geisteswissenschaften ein und stellen die Kontinuität von Arten, Ideen, Begriffen zur Disposition. Doch besieht man die Machart des Begriffs in diesem für die Mutationsforschung konstitutiven Buch, so zeigen sich statt einer sprunghaften begrifflichen Neubildung tatsächlich imposante historische Allianzen und intentionale, performative Umwertungen, die eben nicht jählings auf kollektiver Ebene, sondern auch durch einzelne Begriffsautoren einigermaßen aufwändig in einen 'neuen' Begriff überführt werden.
Expression of kidney injury molecule-1 (Kim-1) is rapidly upregulated following tubular injury, constituting a biomarker for acute kidney damage. We examined the renal localization of Kim-1 expression in PKD/Mhm (polycystic kidney disease, Mannheim) (cy/+) rats (cy: mutated allel, +: wild type allel), an established model for autosomal dominant polycystic kidney disease, with chronic, mainly proximal tubulointerstitial alterations. For immunohistochemistry or Western blot analysis, kidneys of male adult heterozygously-affected (cy/+) and unaffected (+/+) littermates were perfusion-fixed or directly removed. Kim-1 expression was determined using peroxidase- or fluorescence-linked immunohistochemistry (alone or in combination with markers for tubule segments or differentiation). Compared to (+/+), only in (cy/+) kidneys, a chronic expression of Kim-1 could be detected by Western blot analysis, which was histologically confined to an apical cellular localization in areas of cystically-transformed proximal tubules with varying size and morphology, but not in distal tubular segments. Kim-1 was expressed by cystic epithelia exhibiting varying extents of dedifferentiation, as shown by double labeling with aquaporin-1, vimentin or osteopontin, yielding partial cellular coexpression. In this model, in contrast to other known molecules indicating renal injury and/or repair mechanisms, the chronic renal expression of Kim-1 is strictly confined to proximal cysts. Its exact role in interfering with tubulo-interstitial alterations in polycystic kidney disease warrants future investigations.
Fit to play : posture and seating position analysis with professional musicians - a study protocol
(2017)
Background: Musical performance-associated musculoskeletal disorders (MSD) are a common health problem among professional musicians. Considering the manifold consequences arising for the musicians, they can be seen as a threat for their professional activity. String players are the most affected group of musicians in this matter. Faults in upper body posture while playing the instrument, causing un-ergonomic static strain on the back and unergonomic limp-movements, are a main reason for musculoskeletal disorders and pain syndromes.
Methods: A total of 66 professional musicians, divided into three groups, are measured.
The division is performed by average duration of performance, intensity of daily exercise and professional experience. Video raster stereography, a three-dimensional analysis of the body posture, is used to analyse the instrument-specific posture. Furthermore the pressure distribution during seating is analysed. Measurements are performed because the musician is sitting on varying music chairs differing in structure and/or construction of the seating surface. The measurements take place in habitual seating position as well as during playing the instrument.
Results: To analyse the influence of different chairs, ANOVA for repeated measurements or Friedman-test is used, depending on normality assumptions. Comparison of posture between amateur musicians, students, and professional orchestral musicians is carried out the non-parametric Jonckheere-Terpstra-test.
Conclusions: Our method attempts to give the musicians indications for the right music chair choice by analyzing the chair concepts, so that thereby preemptively MSD can be reduced or prevented.
The critical debates of liberal peace are grounded in a "paradox of liberalism" (Sabaratnam 2013): Western liberalism is criticized as oppressive, colonial and bellicose, but also implicitly relied on as the source of emancipation. This has not rejected in a rejection of liberal interventionism, but rather in demands for more cultural sensitivity, more local participation or an efficient control to save the idea of liberal peace...
Die Wahlen über den Verbleib Großbritanniens in der EU haben die europäische Ordnung erschüttert. Der Vortrag/Die Präsentation soll nicht nur die Hintergründe beleuchten, sondern auch zeigen, welche Chancen die neue Situation eröffnet, Chancen, die es vorher so nicht gegeben hat...
Three basic elements should be part of researching in contexts where power asymmetries and colonial connotations are relevant (which applies to many, if not the majority of research contexts in conflict studies): a thorough reflexivity of the researcher’s own role and social conditioning, the construction of research as a political act as it intervenes in scientific and political discourse, and the fact that (especially empirical) research is a product of many (Kaltmeier 2012, Abu Lughod 1991)...
In my paper I claim that methodology inspired by postcolonial theory not only unearths how Western international institutions perpetuate hegemonic truth claims, but that at the same time engaging in a “learning to learn from below” might sense irritations within these truth claims which can open up spaces to think beyond truth in a sense of a justice to come. (Derrida 2002) Since the (mis)understanding of knowledge production as truth finding is constitutive of both, the scientific and the legal discourse, the engagement in such research accordingly has the potential to unfold a twofold deconstructive force...
"European" interventions
(2017)
While conflicts can be managed and resolved to the extent of peace keeping, evolving to state of peace and peace society is a far larger and challenging experience. The armed forces by definition and global practice are nurtured and trained to violence. However, it takes a lot more time and enough maturity and strength for a non-violent struggle...
Far-right parties gained considerable support in many European countries in recent years. Austria comes within a whisker of becoming the first country in the history of the European Union to elect a far-right president, Horbert Hofer, the candidate from the Freedom Party. Similarly, in France, Marie Le Pen is expected to be Front National’s (FN) candidate in the 2017 presidential election and probably to make it to the second round of voting...
Security, arms control, disarmament and confidence building measures in the Baltic sea region
(2017)
Taking into consideration the stalemete of all disarmament negotiations as well as the worsening situation in the Baltic Sea region, I would like to present another paper as well, discussing the security trends in the Baltic Sea region and the potential of confidence building measures in this region as well as to discuss in this context the prospects of arms control and disarmament in general as well as specifically in Europeparticularly in the Baltic Sea region...
Conflict and insecurity have largely been the major driving factors behind the current wave of population influx in Europe. It is desirable that to understand the current migrant crisis in Europe, it is essential to understand the nature of the on-going conflict and existing insecurities in the home states from where the migrants are coming...
When Donald Trump arrived to power, many experts were concerned regarding his ideas on U.S. nuclear weapons. Particular attention was paid to his tweet about strengthening the U.S. nuclear arsenal after 25 years of the consistent WMD-disarmament under "The Cooperative Threat Reduction Program" (aka "Nunn-Lugar Program" an array of START treaties). In that preiod, U.S. and Russia removed more than 8,000 warheads and elements of the nuclear triad – submarines, ICBMs and long-range bombers. Now, experts worry that Trump’s aspirations will bury the U.S.-Russian nuclear cooperation aimed at global security...
Rethinking concepts of peace
(2017)
Motivated by a structural blind spot of Peace Studies regarding the (manifoldness of) definitions of its central concept "peace", I argue that this blind spot is especially manifested in the Eurocentric view on peace. My claim: Non-"Western" concepts of peace should be considered more in Peace Studies...