Refine
Year of publication
Document Type
- Article (30905)
- Part of Periodical (11928)
- Book (8260)
- Doctoral Thesis (5683)
- Part of a Book (3940)
- Working Paper (3384)
- Review (2939)
- Contribution to a Periodical (2338)
- Preprint (1943)
- Report (1560)
Language
- German (43051)
- English (28964)
- French (1071)
- Portuguese (843)
- Multiple languages (315)
- Spanish (309)
- Croatian (302)
- Italian (197)
- mis (174)
- Turkish (168)
Keywords
- Deutsch (1082)
- Literatur (871)
- taxonomy (751)
- Deutschland (553)
- Rezension (511)
- new species (444)
- Rezeption (354)
- Frankfurt <Main> / Universität (341)
- Übersetzung (322)
- Geschichte (301)
Institute
- Medizin (7649)
- Präsidium (5157)
- Physik (4304)
- Extern (2742)
- Wirtschaftswissenschaften (2681)
- Gesellschaftswissenschaften (2372)
- Biowissenschaften (2168)
- Biochemie und Chemie (1970)
- Center for Financial Studies (CFS) (1620)
- Informatik (1602)
Rahel Jaeggi und Tilo Wesche erstellen im Sammelband 'Was ist Kritik?' eine präzise Kartographie der historischen Hauptbedeutungen dieses Begriffes, wobei sie vier Formen unterscheiden: 1) Aufklärung oder Zeitalter der Kritik, 2) historische Kritik, 3) emanzipatorische Kritik oder intellektuelle Tugend und 4) philosophische Kritik. Alle vier Formen sind mit eigenen Nuancen im Werk von Reinhart Koselleck zu finden, der, wie bekannt, nicht im Bann der sogenannten Frankfurter Schule stand. Er hat sich mit der 'Aufklärung als Zeitalter der Kritik' auseinandergesetzt und sogar von der "Dialektik der Aufklärung" gesprochen, genauer gesagt von der Dialektik von Politik und Moral in der Neuzeit. In Form einer Metakritik bzw. einer "Aufklärung über die Aufklärung" unterzog er deren ideologische Pervertierung der Moral einer bissigen Kritik. Koselleck meinte, diese perfide Dialektik, die moralisierende Politik, sei nicht obsolet geworden, sondern sie habe zu den Weltanschauungskriegen des 20. Jahrhunderts geführt. Er kultivierte keine moralische Enthaltung oder Abstinenz, aber er war mit den Exzessen des Moralismus vertraut und misstraute ihnen deshalb.
'Die Zukunft kommt von selbst - der Fortschritt nur mit uns' war das Motto eines SPD-Parteitages im Jahr 1988 in Münster. Dieses Motto verrät nicht nur etwas darüber, wie der Begriff des Fortschritts interpretiert wurde (dass Fortschritt nämlich im Unterschied zur Zukunft nicht automatisch eintritt, sondern politisch 'gemacht' werden muss und dass er, im Gegensatz zur unbestimmten Zukunft, kommen 'soll'), sondern zeigt vor allem, dass gerade dieser Begriff und der mit ihm verbundene politische Gestaltungsanspruch als wesentliches Distinktionsmerkmal zum politischen Gegner herausgestellt wurde. Die Beschlüsse, die 2016 auf dem Parteikonvent der SPD gefasst wurden, standen unter dem Motto 'Fortschritt und Gerechtigkeit'. Dieses Begriffspaar, so erklärte der Bundesvorsitzende Sigmar Gabriel, sei die "Seele der Partei". Die Selbstbeschreibung als Partei des Fortschritts vereinfacht aber die Sache. Wie gezeigt werden soll, hat die Rede über Fortschritt in der Sozialdemokratie eine wechselvolle und ambivalente Geschichte, angesichts derer der heutige, recht ungebrochene Bezug auf das Schlagwort Fortschritt doch ein wenig überrascht. Der Geschichte des Fortschrittsbegriffs in der deutschen Sozialdemokratie soll im Folgenden in einigen wichtigen Momenten durch eine Untersuchung der Programmtexte nachgegangen werden. Dazu wurde auch auf die Methoden der digitalen Korpusanalyse zurückgegriffen. Der Schwerpunkt liegt in diesem Beitrag auf der Herausbildung und der Erosion der 'klassischen' Prägung des Fortschrittsbegriffs in der SPD in der Bundesrepublik. Er wurde nach der Neuausrichtung der SPD beim Parteitag in Bad Godesberg 1959 in besonderer Weise mit benachbarten Kategorien gekoppelt und hat so die grundlegende politische Zielsetzung und das Selbstbild der Partei nachhaltig geprägt.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
"Wellenformen" : die Leistung mathematischer Modellbildung für Akustik, Physiologie und Musiktheorie
(2016)
Im Jahr 1857 hält Hermann von Helmholtz einen Vortrag 'Ueber die physiologischen Ursachen der musikalischen Harmonien', in dem er erstmals Ergebnisse seiner akustischen und hörphysiologischen Forschungen einer akademischen Öffentlichkeit vorstellt. Dabei bilden die Untersuchungen und Experimente, die Helmholtz im Rahmen seiner Tätigkeit als Professor für Anatomie und Physiologie an der Universität Bonn durchgeführt hat, Grundlage und Ausgangspunkt einer umfassenden Neukonstitution von Wissenszusammenhängen, in deren Zuge ältere Wissensbestände arrondiert, im Lichte neuer Erkenntnisse bewertet, erweitert, neu gefasst und in ausgearbeiteter Form sechs Jahre später unter dem Titel 'Die Lehre von den Tonempfindungen' veröffentlicht werden. In den einleitenden Worten seines Vortrages aus dem Jahr 1857 verweist Helmholtz in diesem Kontext auf einen Aspekt, der ihm offenkundig von großer Signifikanz zu sein scheint:
"Es hat mich immer als ein wunderbares und besonders interessantes Geheimnis angezogen, dass gerade in der Lehre von den Tönen, in den physikalischen und technischen Fundamenten der Musik, die unter allen Künsten in ihrer Wirkung auf das Gemüth als die stoffloseste, flüchtigste und zarteste Urheberin unberechenbarer und unbeschreiblicher Stimmungen erscheint, die Wissenschaft des reinsten und consequentesten Denkens, die Mathematik, sich so fruchtbar erwies."
Bemerkenswert an dieser Aussage ist nicht, dass Musik und Mathematik in eine enge Beziehung zueinander gesetzt werden - hier kann Helmholtz auf eine über zweitausendjährige Tradition der wechselseitigen Elaboration beider Bereiche verweisen -, sondern dass Darlegungen, die auf die systematische Durchdringung der Zusammenhänge zwischen akustischen, physiologischen, psychischen, musiktheoretischen und ästhetischen Phänomenbereichen zielen, ihren Ausgangspunkt in der Mathematik nehmen. Diesen Leistungen, die mathematisches Denken für die Untersuchung und Explikation dieser Zusammenhänge erbringt, möchte der folgende Beitrag nachgehen. Es wird sich zeigen, dass eine spezifische mathematische Operation für das Verständnis von akustischen und physiologischen Prozessen modellbildend wirkt und über verschiedene Applikationswege hinweg neue Impulse der Systematisierung von Wissensbeständen setzt.
Klima wird in der industriellen Moderne zum Problem des Wissens. Anders als das Wetter ist das Klima der direkten Wahrnehmung entzogen; ein Umstand, der paradoxerweise immer problematischer zu werden scheint, je mehr Wissen über die komplexen Zusammenhänge von lokalen Wetterereignissen und globalem Klima existiert. Das moderne Klima ist ein wandelbares, globales Phänomen, dessen Erkenntnis doppelt vermittelt ist, insofern es weder sinnlich erfahrbar noch verstandesmäßig erfassbar und somit auf Modellierung angewiesen ist. Diese findet jedoch nicht allein im wissenschaftlichen Kontext statt. Vielmehr ist die Herstellung von Klima als Bedingung von (Lebens-)Wirklichkeit und Zukunft trotz ihres unterschiedlichen epistemischen Status das Ergebnis wechselseitiger Einflussnahme wissenschaftlicher und nicht-wissenschaftlicher Modelle.
Das Ziel dieser Arbeit ist die Entwicklung von neuen, experimentellen Ansätzen zur Thematisierung von Siliciumverbindungen im Chemieunterricht, die einen deutlichen lebensweltlichen Bezug aufweisen und moderne Entwicklungen berücksichtigen.
Die Bandbreite der Siliciumverbindungen reicht von den Silicaten im Bereich der Anorganik über elementares Silicium bis hin zu den polymeren Siliconen im Grenzbereich zu der Organik. Diese
große Vielfalt an Verbindungen hat eine Vielzahl von Anwendungen in tagtäglichen Produkten zur Folge. Dies sind einerseits relativ bekannte anorganische Baustoffe, wie Zement oder Sand, die schon seit der Antike von der Menschheit genutzt werden. Andererseits werden kontinuierlich neue Anwendungsmöglichkeiten in Alltag und Industrie für Siliciumverbindungen entwickelt, die in der modernen Lebenswelt der SchülerInnen einen festen Platz haben.
Oft ist das Vorhandensein der Siliciumverbindung gar nicht auf den ersten Blick erkennbar, obwohl sie die Eigenschaften eines Alltagsprodukts maßgeblich beeinflussen kann. Dies ist beispielsweise bei Silica-Verbindungen in der Zahncreme der Fall.
Im Chemieunterricht werden, wenn überhaupt, die „traditionellen“ Verwendungszwecke, wie in der Baustoffchemie, thematisiert, weniger dagegen die Funktion von Siliciumverbindungen in innovativen Produkten neueren Datums. Nur zögerlich werden Ansätze zur Thematisierung von Verbindungen, wie Siliconen, im Chemieunterricht etabliert.
Im Rahmen dieser Forschungsarbeit wurden daher auf der Grundlage einer fachdidaktischen Analyse und Diskussion Experimente zu ausgewählten Siliciumverbindungen entwickelt. Dies sind die Silicone, die Silica-Verbindungen und elementares Silicium. Die Experimente lassen sich größtenteils in der Sekundarstufe II in Anlehnung an verbindlich im Lehrplan thematisierte Inhalte in den Unterricht einbinden. Einige Experimente können nach einer angemessenen didaktischen Reduktion auch bereits in der Sekundarstufe I eingesetzt werden.
Die im Rahmen dieser Arbeit entwickelten Experimente wurden von LehrerInnen und SchülerInnen gleichermaßen erprobt. Es wurden Rückmeldungen zur Versuchen und Versuchsvorschriften eingeholt. Die Ergebnisse der Auswertung wurden zur Optimierung herangezogen.
In this paper we propose a way forward towards increased financial resilience in times of growing disagreement concerning open borders, free trade and global regulatory standards. In light of these concerns, financial resilience remains a highly valued policy objective. We wish to contribute by suggesting an agenda of concrete, do-able steps supporting an enhanced level of resilience, combined with a deeper understanding of its relevance in the public domain.
First, remove inconsistencies across regulatory rules and territorial regimes, and ensure their credibility concerning implementation. Second, discourage the use of financial regulatory standards as means of international competition. Third, give more weight to pedagogically explaining the established regulatory standards in public, to strengthen their societal backing.
Die vorliegende Arbeit beschäftigt sich mit der vergleichenden funktionalen Charakterisierung der E.coli Transporter LacY, FucP und XylE und des Glucose-Transporters GlcP aus Staphylococcus epidermidis sowie funktionsrelevanter Mutanten. Sie katalysieren in vivo den PMF-gekoppelten Zuckertransport und repräsentieren die major facilitator superfamily (MFS), einer der größten Transporter-Familien überhaupt. Die Studien wurden mithilfe einer elektrophysiologischen Methode auf Basis Festkörper-unterstützter Membranen (SSM) durchgeführt. Komplementär dazu wurden radioaktive Transportassays, fluorometrische Messungen, kinetische Simulationen und theoretische Berechnungen auf Basis der 3D-Strukturen durchgeführt. Experimentell bestimmte Zucker- und pH-Abhängigkeiten elektrogener steady-state und pre steady-state Reaktionen wurden verwendet, um ein allgemeingültiges kinetisches Modell aufzustellen.
Insgesamt konnten bei allen Transportern zwei elementare elektrogene Reaktionen identifiziert werden. Eine schnelle Zucker-induzierte Konformationsänderung wurde dem induced fit des Zuckermoleküls zugeordnet. Die Elektrogenität im steady-state wird dagegen durch den langsamen Transfer der negativ geladenen Protonenbindestelle bestimmt. Die für den Symport ratenlimitierende Reaktion ist abhängig von den äußeren Bedingungen wie pH-Werten, Zuckerkonzentrationen, Substrat-Spezies und Membranpotential meist die Konformationsänderung des leeren (P) oder des beladenen (PSH) Carriers, welche die Substratbindestellen im Zuge des Alternating Access über die Membran transferieren. Ein Wechsel zwischen hohen Protonenbindungs-pK-Werten und niedrigen Protonenfreisetzungs-pK-Werten durch weitere lokale Konformationsänderungen ist zentraler Bestandteil des Transportmechanismus. Ein weiterer wichtiger Aspekt ist die Kopplung zwischen Zucker- und Protonen-Translokation, die sich zwischen E.coli Transportern und GlcP strikt unterscheidet. In E.coli Transportern erfolgt eine kooperative Bindung von Zucker und Proton. Zudem erfolgt keine Konformationsänderung im Zucker-gebundenen, unprotonierten Carrier (PS). In GlcP ist die Kopplung erheblich reduziert. Der Transport-Modus selbst ist abhängig von den äußeren Bedingungen. So katalysiert GlcP abhängig vom pH-Gradienten Uniport, Symport oder Antiport.
Die vorliegende Arbeit leistet einen wichtigen Beitrag zum Verständnis des PMF-gekoppelten Zuckertransports und zeigt die Grenzen des für LacY formulierten 6-Zustands-Modells mit nur zwei Konformationsänderungen auf. Ein erweitertes 8-Zustands-Modell mit vier Konformationsänderungen, die unterschiedliche Ratenkonstanten aufweisen können, erklärt sowohl Symport, Antiport als auch Uniport und berücksichtigt zudem die zahlreichen Ergebnisse für LacY aus der Literatur.
Die Berichterstattung über den Nahostkonflikt gehört seit Jahrzehnten zum Standardrepertoire der Nachrichten. Hierzulande hat fast jeder eine Meinung zum israelisch-arabischen Konflikt, doch wenige verstehen, um was es den Konfliktparteien eigentlich geht, was in bisherigen Verhandlungen erreicht worden ist und wo genau die Hürden für eine Konfliktregelung liegen. Dieses Buch liefert eine kompakte und zugleich anschauliche und detaillierte Analyse des Konflikts zwischen Israel und seinen arabischen Nachbarn. Dabei stehen die lokalen und regionalen Akteure im Mittelpunkt. Um die Konfliktdynamiken zu erklären, geht das Buch vor allem auf die konkurrierenden Interessen und Narrative der Konfliktparteien sowie ihre Wechselwirkungen ein.
Der vorliegende Aufsatz befasst sich mit temporalen Uneindeutigkeiten ökonomischer Modellierungen, die einem Ansatz zugerechnet werden, der in der Wissenschaftsgeschichte der Ökonomik als 'Neoklassik' thematisiert wird und seit den 1870er Jahren vorgebracht wurde. Die Neoklassik hat sich als enorm einflussreich in der Wirtschaftswissenschaft erwiesen; sie liegt beispielsweise der seit der zweiten Hälfte des 20. Jahrhunderts zunehmende Eigenständigkeit erlangenden Finanztheorie ('Finance') zugrunde und informierte auch die in den 1970er Jahren erstarkende Bewegung, makroökonomische Modellierungen auf Tauschvorgänge zurückzuführen, die sich auf der Mikroebene, d. h. zwischen einzelnen ökonomischen Akteuren (Arbeitern, Firmen, Haushalten etc.) abspielen.
Zu den nachhaltigsten Prägungen des architektonischen Entwerfens gehört das vereinfachte Idealszenario, wonach der Prozess der Theorie- und Formbildung eine Kette von Modellierungsstufen sei, die vom Großen zum Kleinen, vom städtebaulichen Entwurf zur baukonstruktiven Detailplanung führen. Nach diesem Szenario steht am Anfang jeder Modellierungsphase eine architektonische Hypothese mit ihrem je spezifischen Gegenstandsversprechen. Als letzte Modellierungsstufe am Ende der Kette liegt das konkrete Bauwerk im Eins-zu-eins-Maßstab vor. Jede Stufe wird in maßstabsgetreuen Zeichnungen und Modellen entwickelt, die ihre Qualität aus der Entsprechung zum späteren Bauwerk gewinnen. In jeder Phase hat der Architekt die Möglichkeit, das bisher Modellierte durch Anschauung zu überprüfen, weiter auszuarbeiten oder zu verwerfen. Auf diese Weise wird der Entwurf von einer Stufe auf die nächste überführt. Das computerbasierte Modellieren scheint diese Idealkette entwurflicher Operationen zu unterbrechen. Unter Zuhilfenahme von 3D-Modellierungssoftware entwickelt der Architekt seinen Entwurf weniger in aufeinander aufbauenden Stufen als vielmehr in einer einzigen Stufe, die theoretisch alle anderen Stufen beinhaltet. Die erdachte Architektur wird nicht in abstrahierenden, voneinander getrennten Zeichnungen dargestellt, sondern in einem einzigen, zweidimensional wiedergegebenen 3D-Modell visualisiert. Digitale Prozessketten heben die tradierte Trennung zwischen intellektuellem Entwurfsakt und materieller Ausführung auf. Während im Analogen die architektonischen Entwurfszeichnungen zunächst in Ausführungspläne und anschließend von den am Bau beteiligten Gewerken in Werkstattpläne transformiert werden, sind im Digitalen Entwurf und Ausführung eng miteinander verschränkt. Die Produktionstechnologien greifen unmittelbar in die Entwurfsverfahren ein: Bei dem 'file to factory' genannten Modellierungsverfahren werden geometrische und technologische Informationen in einem Datenmodell zusammengefasst, das unter Zuhilfenahme computergesteuerter Fertigungsmaschinen (u. a. 3D-Drucker) in ein physisches Modell oder ein Bauteil umgesetzt wird.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.
Das Ziel des Beitrags besteht darin, jene Formelideale in der Mathematik und in der Ökonomik zu identifizieren, um anschließend Überlegungen darüber anzustellen, auf welche Art und Weise diese Ideale den logischen Spielraum der Problemlösung erweitern oder einengen. Ganz entscheidend hierfür ist das Verhältnis von Internalitäten und Externalitäten; also ob bzw. welche Umweltbezüge in der Formelsprache eingeschlossen oder ausgeschlossen werden. Die Analyse erfolgt aus wissenssoziologischer Perspektive, die die mathematische, mit Blick auf die Ökonomik vorsichtiger formuliert: die pseudo-mathematische Formelsprache als eine spezifische Semantik versteht. Hierbei handelt es sich nicht nur um eine Semantik, die sich der durch die gesellschaftliche Differenzierung ausgelösten Komplexitätssteigerung anpasst. Die Evolution der mathematischen und wirtschaftswissenschaftlichen Semantik befolgt zudem, so meine These, paradigmatische Ideale, die in den spezifischen Disziplinen angelegt sind. Dies spiegelt sich in der Art und Weise wider, wie in den jeweiligen Disziplinen auf mathematisch-kalkulatorischer Modellebene einerseits eine Geschlossenheit und Binnenreferenzialität des Formelhorizonts und andererseits eine Projektionsfläche für die Entdeckung von Zusammenhängen und das Auffinden formaler Muster generiert wird. Die Ausgangsannahme im Hinblick auf die Ökonomik ist, dass auch die Operationsweise ökonomischer Modelle, insofern sie auf mathematischer Grundlage gebildet werden, auf einer Binnenreferenzialität beruht. Die Stringenz solcher Modellierungen wird gerade deswegen zum vorherrschenden Gütekriterium, weil sie nicht nur jegliche Externalitäten im Sinne einer Irritation des formalen Modells ausschließt, sondern zugleich Beobachtungseffekte durch Sinnüberschüsse ermöglicht, die durch eine Entdeckung formaler Muster aktualisiert werden. Im ersten Schritt wird hierzu das Formelideal der reinen Mathematik auf der Grundlage wissenssoziologischer Überlegungen und mathematischer Selbstreflexionen herausgearbeitet. Daran anschließend wird das Formelideal pseudo-mathematischer Modelle in der Ökonomik untersucht. Die Basis bilden vor allem William Stanley Jevons' und Alfred Marshalls wegweisende Überlegungen zur Mathematisierung der Ökonomik. Die Beobachtungen werden abschließend auf den Aspekt des Erweiterns oder Einengens des logischen Spielraums zur Problemlösung in der Mathematik und der Ökonomik hin zugespitzt.
Die naturwissenschaftlichen Diskurse des 19. Jahrhunderts sprachen neben den 'Bildern' von einer ganzen Reihe weiterer Dinge, welche Wissensgegenstände repräsentieren konnten, auch ohne Modelle im damaligen Sinn zu sein. Weite Verbreitung fanden im 19. Jahrhundert in dieser Funktion insbesondere die Begriffe der 'Analogien', 'Interpretationen' und der 'Systeme' von wirklichen oder gedachten Dingen. Die Beispiele, die mit solchen Begriffen verbunden waren, sind häufig für die Wissenschaftsentwicklung von substanzieller Bedeutung gewesen. Sie stehen aber, wie ich im Folgenden andeuten möchte, für ganz unterschiedliche Formen und Funktionen der abstrakten Repräsentation. Den Begriff 'abstrakte Repräsentation' verwende ich hierbei etwas vage und naiv als schlichten Oberbegriff für verschiedene Weisen, einen Komplex von wissenschaftlich interessierenden Dingen oder Sachverhalten durch etwas anderes darzustellen und für die wissenschaftliche Praxis zu thematisieren, ohne dabei auf materielle, anfassbare Dinge zurückzugreifen, wie dies die 'Modelle' in der Sprache des 19. Jahrhunderts taten. Zugleich soll dadurch ('pace' Wittgenstein und unangesehen der inflationären Verwendung des Modellbegriffs seit Mitte des 20. Jahrhunderts) vermieden werden, vorschnell von einem 'Denken in Modellen' zu reden. Wir werden noch sehen, dass die in Rede stehenden, abstrakten Repräsentationen bisweilen sehr konkrete epistemische Funktionen hatten. Das Wort 'abstrakt' sollte hier also nicht überbewertet werden. Insbesondere möchte ich im Folgenden jeweils die spezifische 'epistemische Situation' charakterisieren, d.h. die Besonderheiten der Wissensumstände, in welchen der Rückgriff auf eine Form der abstrakten Repräsentation geschah und den Beteiligten vielversprechend erschien.
Es ist ein Gegenstand andauernder Diskussionen, wie der Strukturalismus, der im Werk von Claude Lévi-Strauss vielleicht seine aufregendste und theoretisch ambitionierteste Ausprägung gefunden hat, sich zum Modell verhält. Während Marcel Hénaff betont hat, dass der Strukturalismus von Lévi-Strauss ohne eine Klärung des Modell-Begriffs kaum verstanden werden könne, hat Robert Matthias Erdbeer am Beispiel des französischen Ethnologen zuletzt das Fehlen einer strukturalistischen Modelltheorie beklagt: "Man kann hier einen echten Theorieverlust, ja Theorieverzicht beklagen, wenn man konstatiert, dass am Beginn der strukturalen Theoriebildung nicht die Strukturen stehen, sondern das Modell. Modelle, so die überraschende Erkenntnis, sind das epistemische Arkanum, das verdeckte Andere des strukturalen Theoriedesigns." Aus der Perspektive der Modelltheorie literarischer Texte, die Erdbeer in hoch anregender Weise ausgearbeitet hat, ist diese Diagnose nachvollziehbar. Jedoch sollte sie nicht in den Hintergrund geraten lassen, dass der Modell-Begriff von Lévi-Strauss, so ungenügend er sich zur Lösung aktueller theoretischer Fragestellungen erweisen mag, aus historischer Sicht überaus aufschlussreich ist, ja dass er gerade auch in seinen Unschärfen, Schwierigkeiten und Dunkelheiten Auskunft darüber gibt, wie sich die strukturale Analyse im wissenschaftlichen Feld ihrer Zeit positioniert und an welche wissenschaftlichen Traditionen sie anschließt. In den folgenden Ausführungen wird der Modell-Begriff bei Lévi-Strauss deshalb noch einmal in den Blick genommen. Im Anschluss an Hénaff soll dabei vor allem an zwei Diskussionsfeldern gezeigt werden, dass die Auseinandersetzung mit Modellen insofern ins Herz der strukturalen Analyse führt, als Lévi-Strauss Modelle sowohl von der Struktur als auch von den konkreten Ereignissen her denkt und sie immer wieder als Vermittler von Struktur und Ereignis positioniert. Hierfür wird zunächst rekonstruiert, wie Lévi-Strauss das Modell im Zusammenhang von Reflexionen zur Ethnologie und deren Rolle im Gefüge der Wissenschaften behandelt - in den Mittelpunkt werden dabei die Begriffe des 'mechanischen Modells' und des 'statistischen Modells' rücken. Danach wird betrachtet, wie er das Modell in das 'Das wilde Denken' ins Zentrum seiner ästhetischen Theorie stellt und die Kunst hier als 'verkleinertes Modell' konzipiert, bevor abschließend zumindest umrissen werden soll, in welche wissenschaftliche Tradition sich Lévi-Strauss mit seinen Erörterungen zu Modellen stellt.
In einem 2015 veröffentlichten Ranking des populären Wissenschaftsportals 'postnauka' wurde in der Rubrik "die fünf wichtigsten Bücher zur intellectual history" Reinhart Kosellecks Monographie 'Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten' vorgestellt. Der Autor Ivan Boldyrev bezeichnete den Band als eines der Grundlagenwerke der deutschen Begriffsgeschichte und hob auf die Leistungsfähigkeit der historischen Semantik ab. Dass ein deutschsprachiges Buch auf die Liste kam, stellt eine große Ausnahme dar. Deutsche Titel erscheinen in diesen Rankings ansonsten nur, wenn sie in russischer Übersetzung vorliegen. Eine intensive Rezeption der Begriffsgeschichte Reinhart Kosellecks und seiner Arbeiten zu Zeitstrukturen setzte bereits vor über zehn Jahren ein. 2004 beendete der Historiker Aleksandr Dmitriev einen Überblicksartikel zur 'Intellectual History' mit der Ankündigung, dass der Moskauer Verlag 'Novoe literaturnoe obozrenie' (Neue literarische Umschau) in seinen Zeitschriften und Büchern das Thema zunächst am Beispiel der Begriffsgeschichte Reinhart Kosellecks verfolgen werde. Bereits zwei Jahre später, 2006, konstatierte Nikolaj Koposov, der Gründungsdekan des 'Smolny College of Liberal Arts and Sciences' in Sankt Petersburg, über Begriffsgeschichte werde viel diskutiert, der Ansatz selbst aber von russischen Kollegen bzw. an russischem Material nur wenig praktiziert. Mittlerweile hat sich einiges in diesem Forschungsfeld getan. Es liegen erste Übersetzungen der theoretischen Arbeiten Kosellecks sowie neun Artikel aus den 'Geschichtlichen Grundbegriffen' in russischer Sprache vor. Auch die Zahl von empirischen und theoretischen Arbeiten zur russischen Begriffsgeschichte wächst. Die Rezeption der deutschen Begriffsgeschichte und der Arbeiten Reinhart Kosellecks erfolgt - so die einhellige Meinung von russischen Autoren - im Zuge der wissenschaftlichen Neuorientierung in postsowjetischer Zeit und der Suche nach Parametern für die Forschung. Damit verbunden indet eine Internationalisierung und Öffnung der Geisteswissenschaften nach außen statt, d.h. es erfolgt eine intensivere Rezeption internationaler Historiographien und eine verstärkte Kooperation mit ausländischen Kollegen. Spezifisch für dieses Forschungsfeld ist die gleichzeitige bzw. gemeinsame Rezeption der Begriffsgeschichte bei Historikern, Philosophen, Linguisten, Soziologen und Politologen. Im Folgenden sollen die wichtigsten Institutionen, Veranstaltungen, Kooperationen und Publikationen vorgestellt und die inhaltlichen Schwerpunkte und Spezifika der russischen Rezeption Kosellecksche Arbeiten aufgezeigt werden.
Im spanischsprachigen Raum wird immer noch oft zwischen philosophischer und historiographischer Begriffsgeschichte unterschieden. Allerdings führen beide Richtungen seit einigen Jahren einen fruchtbaren Dialog miteinander. Damit schließen sie in gewisser Weise an eine Forderung Reinhart Kosellecks an. Nach seiner Einschätzung kann die "Fortführung oder Revision der Begriffsgeschichte" von "deren philosophiegeschichtlichen Wurzeln und Varianten" nicht absehen. Die von Koselleck benannte Theoriebedürftigkeit der Geschichtswissenschaft, damals noch umstritten, ist zu einer Art Evidenz geworden. Daher kann ein kleiner Exkurs zur editorischen Wirkungsgeschichte Kosellecks in Spanien und Iberoamerika aufschlussreich sein.
The reception of Reinhart Koselleck's oeuvre in Scandinavia has not been unified. This differences are due in part to the different languages and the rather different academic cultures in the Nordic countries. While German is widely read and understood in Denmark, it is less popular in Finland, Norway, and Sweden. The need for translations and mediation through other languages differs from country to country, which makes a common Nordic reception hard to assess. Moreover, the scholars who have been instrumental in the reception and elaboration of Koselleck's thought have not typically worked within a single, delineated national space, making the notion of national receptions itself difficult to defend. This trouble with national and regional reception might even lead one to ask if the foundation of the History of Political and Social Concepts Group (known since 2012 as the History of Concepts Group) at the Finnish Institute in London in 1998 was a specifically Finnish endeavor or a Nordic one. Although the meeting was co-initiated by Kari Palonen and hosted by Henrik Stenius, the director of the Institute at the time, the group’s outlook was from the very beginning an international one. Similarly confounding are the conditions surrounding the only intellectual biography about Koselleck to date. It was written by the Danish scholar Niklas Olsen as his PhD thesis at the European University Institute and later published as a book by an American publishing house. In this respect, it can hardly be seen as a distinctly Danish or Scandinavian effort. Still, there has been a strong Scandinavian element within the international reception of Koselleck and 'Begriffsgeschichte'. As a result, scholars have produced translations of Koselleck's writings, publications inspired by his 'Geschichtliche Grundbegriffe', and theoretical projects that attempt to expand the limits of conceptual history. Institutionally, conceptual history has been very visible in the Nordic countries. The History of Concepts Group has held conferences in Copenhagen (2000), Tampere (2001), Uppsala (2006), and Helsinki (2012). The international summer school in conceptual history took place in Helsinki (2005–2012) and since then has convened in Aarhus and Copenhagen. By contrast, the irst conference in Germany did not take place until 2014 in Bielefeld.
Koselleck in Italien
(2015)
Das Werk Reinhart Kosellecks ist in Italien im Rahmen der Historiographie, der Theorie der Geschichte, der Philosophie und der Politikwissenschaft relativ bekannt. Im italienischen Sprachraum haben seine Theorie historischer Zeiten, seine begriffsgeschichtliche Methode und seine Historik eine weite Verbreitung erreicht. Etwas weniger bekannt sind seine Aufsätze zur politischen Ikonologie. Die Übersetzung der Schriften Kosellecks in die italienische Sprache begann erst in den 1970er Jahren. So wurde 1972 'Kritik und Krise', 1986 'Vergangene Zukunft', 1988 das Buch über Preußen, 1990 'Hermeneutik und Historik' und 1992 'Das Zeitalter europäischer Revolution 1780–1848' übersetzt. Die 'Studien zum Beginn der modernen Welt' erschienen im Jahre 1997 in einer italienischen Ausgabe. 2009 wurde eine Teilausgabe der 'Begriffsgeschichten' im Italienischen veröffentlicht. Außerdem sind mehrere Artikel Kosellecks aus den 'Geschichtlichen Grundbegriffen' (1991 'Fortschritt', 1993 'Demokratie', 2009 'Geschichte', 2012 'Krise') und einige Aufsätze ('Concepts of Historical Time and Social History' (1980), 'Das achtzehnte Jahrhundert als Beginn der Neuzeit' (1987), 'Die Transformation der politischen Totenmale im 20. Jahrhundert' (2002)) übersetzt worden. Koselleck wird in Italien meist als Begriffshistoriker wahrgenommen und ist für das italienische Publikum der wahrscheinlich bekannteste Vertreter der deutschen Begriffsgeschichte.
Folgt man einem Eintrag in einer der meistbenutzten Online-Enzyklopädien, dann gehört Reinhart Koselleck in Frankreich zu den bekanntesten deutschen Historikern des 20. Jahrhunderts. Eine vergleichsweise lange Liste von Übersetzungen und kritischen Beiträgen bekräftigt dieses Urteil und unterstreicht zugleich die spezifischen Interessengebiete, die für die französische Rezeption Kosellecks wichtig wurden. Sie reichen von der Sozial- und Begriffsgeschichte über die Geschichte von Recht und Gerechtigkeit bis zu Problemen der Erinnerungskultur und der Theorie der Geschichte. Vor allem in den letzten zwei Jahrzehnten des 20. Jahrhunderts erschien eine Reihe von Übersetzungen wesentlicher Beiträge Kosellecks zu diesen Themen ins Französische. Dass sich diese Periode mit einer Phase intensiver methodologischer und theoretischer Auseinandersetzungen unter französischen Historikern deckte, war für die Art und Weise, in der Kosellecks Arbeiten aufgenommen und diskutiert wurden, keineswegs unwichtig. Zeitweilig erwuchs daraus ein Dialog, der auf beiden Seiten des Rheins eine ganze Generation junger Historiker einschloss.
Purpose: A study of real-time adaptive radiotherapy systems was performed to test the hypothesis that, across delivery systems and institutions, the dosimetric accuracy is improved with adaptive treatments over non-adaptive radiotherapy in the presence of patient-measured tumor motion.
Methods and materials: Ten institutions with robotic(2), gimbaled(2), MLC(4) or couch tracking(2) used common materials including CT and structure sets, motion traces and planning protocols to create a lung and a prostate plan. For each motion trace, the plan was delivered twice to a moving dosimeter; with and without real-time adaptation. Each measurement was compared to a static measurement and the percentage of failed points for γ-tests recorded.
Results: For all lung traces all measurement sets show improved dose accuracy with a mean 2%/2 mm γ-fail rate of 1.6% with adaptation and 15.2% without adaptation (p < 0.001). For all prostate the mean 2%/2 mm γ-fail rate was 1.4% with adaptation and 17.3% without adaptation (p < 0.001). The difference between the four systems was small with an average 2%/2 mm γ-fail rate of <3% for all systems with adaptation for lung and prostate.
Conclusions: The investigated systems all accounted for realistic tumor motion accurately and performed to a similar high standard, with real-time adaptation significantly outperforming non-adaptive delivery methods.
Die besondere sprachliche und gesellschaftliche Situation in der Türkei bedingt, dass sich dort die Voraussetzungen für die Beschäftigung mit Begriffsgeschichte grundlegend von denen in anderen Ländern unterscheiden. In den Atatürk'schen Reformen seit den späten 1920er Jahren wurde auch die Sprache zum Ziel staatlicher Eingriffe: Der arabische und persische Wortschatz sowie Fremdwörter aus europäischen Sprachen sollten durch "genuin türkische" ('Öz Türkçe', etwa: 'das eigentliche, reine Türkisch') Wörter ersetzt werden, die entweder aus anderen Turksprachen entlehnt oder neu geschaffen werden sollten. Über Jahrzehnte hinweg wurde über Wörter und ihre Gestalt heftig gestritten, und die politische Gesinnung eines Menschen konnte lange Zeit auch an dem Wortschatz festgemacht werden, den er gebrauchte. Dies hatte und hat auch Konsequenzen für Begriffe und ihre Geschichte in der Türkei. So ist es im akademischen Diskurs der Türkei gängige Praxis, Begriffe aus den europäischen Sprachen ins Türkische zu übersetzen, wobei die türkischen Begriffe sowohl von den Autoren als auch von den Lesern als Übersetzungen der entsprechenden Begriffe in den Originalsprachen wahrgenommen werden. Kommen begriffsgeschichtliche Fragen ins Spiel, so interessiert man sich dann meist nicht für die Geschichte der türkischen Übersetzung, sondern für die des ursprünglichen Begriffs. Ein weiterer wichtiger Aspekt ist die Tatsache, dass "Klassiker" der sozialwissenschaftlichen und philosophischen deutsch-, englisch- und französischsprachigen Literatur relativ schnell auch ins Türkische übersetzt werden, wobei sich begriffliche Fragen gewissermaßen von selbst einstellen.
BACKGROUND: Polyclonal anti-thymocyte globulins (ATGs) are immunosuppressive drugs widely used in induction of immunosuppression and treatment of acute rejection after solid organ transplantation. We have previously demonstrated that ATGs bind to endothelial cells in vitro, and are able to modulate ECs. The aim of this study was to investigate the binding of ATGs to endothelial cells under in vivo conditions.
MATERIAL AND METHODS: Muscle biopsies from extremities of cynomolgus monkeys were obtained after ischemia/reperfusion at 4°C. ATGs (Thymoglobulin, Sanofi-Aventis, France; 1 mg/kg) were added to the blood 30 min prior to the reperfusion. Biopsies (n=10) of patients undergoing heart transplantation and preoperatively treated with ATGs (Thymoglobulin, Sanofi-Aventis, France; 1.5 mg/kg) as induction therapy were also analyzed 6 hours and 7 days after induction. Binding of ATGs to ECs was analyzed with an anti-rabbit IgG antibody by means of immunohistochemistry.
RESULTS: Binding of ATGs to endothelial cells could be demonstrated in vivo in our animal experiments 4 hours after reperfusion, as well as in the clinical biopsies 6 hours after induction of immunosuppression in heart transplant patients, showing a preferred localization in post-capillary veins. No expression of ATGs on the endothelial surface could be observed after 7 days, suggesting that ATGs may be washed out from the endothelial surface in a time-dependent manner.
CONCLUSIONS: Our results show that ATGs are able to bind to endothelial cells in an experimental model and in clinical practice, supporting preconditioning strategies with ATGs in solid organ transplantation.
Introduction: In the time of increasing resistance and paucity of new drug development there is a growing need for strategies to enhance rational use of antibiotics in German and Austrian hospitals. An evidence-based guideline on recommendations for implementation of antibiotic stewardship (ABS) programmes was developed by the German Society for Infectious Diseases in association with the following societies, associations and institutions: German Society of Hospital Pharmacists, German Society for Hygiene and Microbiology, Paul Ehrlich Society for Chemotherapy, The Austrian Association of Hospital Pharmacists, Austrian Society for Infectious Diseases and Tropical Medicine, Austrian Society for Antimicrobial Chemotherapy, Robert Koch Institute.
Materials and methods: A structured literature research was performed in the databases EMBASE, BIOSIS, MEDLINE and The Cochrane Library from January 2006 to November 2010 with an update to April 2012 (MEDLINE and The Cochrane Library). The grading of recommendations in relation to their evidence is according to the AWMF Guidance Manual and Rules for Guideline Development.
Conclusion: The guideline provides the grounds for rational use of antibiotics in hospital to counteract antimicrobial resistance and to improve the quality of care of patients with infections by maximising clinical outcomes while minimising toxicity. Requirements for a successful implementation of ABS programmes as well as core and supplemental ABS strategies are outlined. The German version of the guideline was published by the German Association of the Scientific Medical Societies (AWMF) in December 2013.
Background: Baker’s yeast, Saccharomyces cerevisiae, as one of the most often used workhorses in biotechnology has been developed into a huge family of application optimised strains in the last decades. Increasing numbers of strains render their characterisation highly challenging, even with the simple methods of growth-based analytics. Here we present a new sensor system for the automated, non-invasive and parallelisable monitoring of biomass in continuously shaken shake flask cultures, called CGQ (“cell growth quantifier”). The CGQ implements a dynamic approach of backscattered light measurement, allowing for efficient and accurate growth-based strain characterisation, as exemplarily demonstrated for the four most commonly used laboratory and industrial yeast strains, BY4741, W303-1A, CEN.PK2-1C and Ethanol Red.
Results: Growth experiments revealed distinct carbon source utilisation differences between the investigated S. cerevisiae strains. Phenomena such as diauxic shifts, morphological changes and oxygen limitations were clearly observable in the growth curves. A strictly monotonic non-linear correlation of OD600 and the CGQ’s backscattered light intensities was found, with strain-to-strain as well as growth-phase related differences. The CGQ measurements showed high resolution, sensitivity and smoothness even below an OD600 of 0.2 and were furthermore characterised by low background noise and signal drift in combination with high reproducibility.
Conclusions: With the CGQ, shake flask fermentations can be automatically monitored regarding biomass and growth rates with high resolution and parallelisation. This makes the CGQ a valuable tool for growth-based strain characterisation and development. The exceptionally high resolution allows for the identification of distinct metabolic differences and shifts as well as for morphologic changes. Applications that will benefit from that kind of automatized biomass monitoring include, amongst many others, the characterization of deregulated native or integrated heterologous pathways, the fast detection of co-fermentation as well as the realisation of rational and growth-data driven evolutionary engineering approaches.
Background: Histone lysine demethylases (KDMs) are of interest as drug targets due to their regulatory roles in chromatin organization and their tight associations with diseases including cancer and mental disorders. The first KDM inhibitors for KDM1 have entered clinical trials, and efforts are ongoing to develop potent, selective and cell-active ‘probe’ molecules for this target class. Robust cellular assays to assess the specific engagement of KDM inhibitors in cells as well as their cellular selectivity are a prerequisite for the development of high-quality inhibitors. Here we describe the use of a high-content cellular immunofluorescence assay as a method for demonstrating target engagement in cells.
Results: A panel of assays for the Jumonji C subfamily of KDMs was developed to encompass all major branches of the JmjC phylogenetic tree. These assays compare compound activity against wild-type KDM proteins to a catalytically inactive version of the KDM, in which residues involved in the active-site iron coordination are mutated to inactivate the enzyme activity. These mutants are critical for assessing the specific effect of KDM inhibitors and for revealing indirect effects on histone methylation status. The reported assays make use of ectopically expressed demethylases, and we demonstrate their use to profile several recently identified classes of KDM inhibitors and their structurally matched inactive controls. The generated data correlate well with assay results assessing endogenous KDM inhibition and confirm the selectivity observed in biochemical assays with isolated enzymes. We find that both cellular permeability and competition with 2-oxoglutarate affect the translation of biochemical activity to cellular inhibition.
Conclusions: High-content-based immunofluorescence assays have been established for eight KDM members of the 2-oxoglutarate-dependent oxygenases covering all major branches of the JmjC-KDM phylogenetic tree. The usage of both full-length, wild-type and catalytically inactive mutant ectopically expressed protein, as well as structure-matched inactive control compounds, allowed for detection of nonspecific effects causing changes in histone methylation as a result of compound toxicity. The developed assays offer a histone lysine demethylase family-wide tool for assessing KDM inhibitors for cell activity and on-target efficacy. In addition, the presented data may inform further studies to assess the cell-based activity of histone lysine methylation inhibitors.
Die Rezeption von Kosellecks Konzeption der Begriffsgeschichte in Polen begann Anfang der 1990er Jahre auf Umwegen und als Resultat von Zufällen. Die Tatsache, dass der polnische Philosoph Krzysztof Michalski (1948–2013), der Direktor des Wiener 'Instituts für die Wissenschaften vom Menschen', die Ergebnisse der vom ihm organisierten Castelgandolfo-Gespräche nicht nur im deutschen Original, sondern ab 1990 auch in Polen herausgab, führte dazu, dass auch drei Vorträge Kosellecks in polnischer Übersetzung erschienen. Da Koselleck in zweien seiner Vorträge mit 'Krise' und 'Emanzipation' die Geschichte von Begriffen behandelte, die er auch in den 'Geschichtlichen Grundbegriffen' (GG) erörtert hatte, gelangten auf dem Umweg der Castelgandolfo-Sammelbände erstmals Texte Kosellecks zur Begriffsgeschichte in den akademischen Diskurs in Polen. Auch in seinem dritten Castelgandolfo-Vortrag, in dem es um die Möglichkeit eines auf der historischen Semantik basierenden Vergleichs bürgerlicher Gesellschaften ging, hatte Koselleck weiterreichende Konsequenzen der Begriffsgeschichte behandelt. In den 1990er Jahren selbst erfuhren die genannten Texte in Polen allerdings noch kaum Beachtung. Dies sollte sich erst 2001 ändern, als der Germanist Hubert Orłowski in der von ihm verantworteten 'Posener Deutschen Bibliothek' (Poznańska Biblioteka Niemiecka) einen Sammelband mit vom ihm ausgewählten Aufsätzen Kosellecks zur historischen Semantik herausgab, der im Wesentlichen auf dessen Band 'Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten' (1979) basierte, allerdings um die Einleitung zu den GG und weitere Texte ergänzt worden war.
Die offensichtlichen Ähnlichkeiten zwischen Neurasthenie und Burnout dürfen den wissenschaftlichen Blick jedoch nicht dazu verleiten, vorschnell von einer substantiellen Identität auszugehen. Es ist keineswegs gleichgültig, unter welchem Namen ein Leiden amtiert. Vielmehr gehe ich davon aus, dass die Etablierung eines neuen Begriffs ein Ereignis ist, das genauer in den Blick genommen zu werden verdient, weil es auf eine veränderte Problemlage hinweist. Die Frage lautet also, wie genau sich das Verhältnis zwischen Neurasthenie und Burnout darstellt, was diese beiden Begriffe trennt und verbindet, welche semantischen Bedeutungsebenen sich in ihnen jeweils abgelagert haben und welche Rückschlüsse sich aus der Untersuchung dieser Bedeutungsschichten für das Verständnis unserer Gegenwart möglicherweise ziehen lassen. Der erste Schritt einer solchen Fragestellung muss immer darin bestehen, die Phänomene gegeneinander zu legen und sie auf ihre Gemeinsamkeiten und Unterschiede hin zu untersuchen, um auf dieser Grundlage eine schärfere Kontur ihrer Besonderheiten zu erlangen - was im Folgenden geschehen soll.
Das Thema der Entstehung der modernen Welt steht im Zentrum des Interesses Reinhart Kosellecks, sowohl in Bezug auf die historische Semantik der politischen Begriffe, als auch bezüglich der sozialen Veränderungen der gesellschaftlichen Strukturen. Kosellecks Begriffsgeschichte geht es darum, den "Umwandlungsprozess zur Moderne" zu zeigen, wie er sich in der Verwendung der politischen Sprache ereignet. Mit der Theorie historischer Zeiten entwickelt Koselleck eine eigene Theorie der Entstehung der Neuzeit, die die Absicht hat, die spezifischen und charakteristischen Merkmale der modernen Welt und ihrer Zeitlichkeit durch die Darstellung der Beziehung zwischen den Erfahrungsräumen und den Erwartungen zu beschreiben. In seiner Doktorarbeit hat Koselleck die Diagnose über den Beginn der modernen Welt auf die Beziehung zwischen aufklärerischer Kritik und politischer Krise zurückgeführt; 1959 wurde die Doktorarbeit verbessert und veröffentlicht. Nun wird die Genese der modernen Welt zur "Pathogenese der bürgerlichen Welt", also vor allem im Sinne einer Krankheit verstanden: die Krise der Moderne entspricht also einer Pathologie. Der Horizont des strukturellen Verhältnisses zwischen der Neuzeit und der Krise bleibt auch in den folgenden Schriften das Thema Kosellecks, wenn er sich mit der historischen Zeitlichkeit beschäftigt. Das Ziel dieses Aufsatzes besteht darin, diese Beziehung zu rekonstruieren, und zwar darzustellen, wie Koselleck den auf den semantischen Raum der Krankheit und der Pathologie verweisenden Krisenbegriff als diagnostische und prognostische Kategorie verwendet, um die spezifische Natur der historischen Wandlung zur modernen Welt festzulegen.
The amyloid precursor protein (APP) was discovered in the 1980s as the precursor protein of the amyloid A4 peptide. The amyloid A4 peptide, also known as A-beta (Aβ), is the main constituent of senile plaques implicated in Alzheimer’s disease (AD). In association with the amyloid deposits, increasing impairments in learning and memory as well as the degeneration of neurons especially in the hippocampus formation are hallmarks of the pathogenesis of AD. Within the last decades much effort has been expended into understanding the pathogenesis of AD. However, little is known about the physiological role of APP within the central nervous system (CNS). Allocating APP to the proteome of the highly dynamic presynaptic active zone (PAZ) identified APP as a novel player within this neuronal communication and signaling network. The analysis of the hippocampal PAZ proteome derived from APP-mutant mice demonstrates that APP is tightly embedded in the underlying protein network. Strikingly, APP deletion accounts for major dysregulation within the PAZ proteome network. Ca2+-homeostasis, neurotransmitter release and mitochondrial function are affected and resemble the outcome during the pathogenesis of AD. The observed changes in protein abundance that occur in the absence of APP as well as in AD suggest that APP is a structural and functional regulator within the hippocampal PAZ proteome. Within this review article, we intend to introduce APP as an important player within the hippocampal PAZ proteome and to outline the impact of APP deletion on individual PAZ proteome subcommunities.
Background: Infection is a main cause of morbidity and mortality after heart surgery, with multi-resistant pathogens increasingly representing a challenge. Daptomycin provides bactericidal activity against gram-positive organisms that are resistant to standard treatment including vancomycin.
Methods: A cohort of cardiac surgical patients, treated with daptomycin for major infection at two tertiary care centers, were retrospectively studied with a particular focus on the type of infection, causative pathogens and co-infections, daptomycin dosage, adverse events and outcome in order to provide evidence for the efficiency and safety of daptomycin in a distinct high-risk patient population.
Results: Sixty-five patients (87.7 % males, 60.4 ± 13.5 years) who had undergone aortic surgery (20.0 %), ventricular assist device (VAD) implantation (21.5 %), combined procedures (21.5 %), coronary artery bypass grafting (12.3 %), isolated valve surgery (15.4 %) and heart transplantation (7.7 %) were diagnosed with catheter-related infection (26.1 %), valve endocarditis (18.8 %), sternal wound (13.0 %), VAD-associated (11.6 %), cardiac implantable electrophysiological device (CIED)-associated (4.1 %), respiratory tract (4.3 %), bloodstream (4.3 %) and other infection (4.3 %). In 13.0 %, no focus of infection was identified though symptoms of severe infection were present. The most frequent pathogens were Staphylococcus epidermidis (30.4 %), Staphylococcus aureus (23.1 %) and Enterococcus species (10.1 %). Daptomycin doses ranging from 3 mg/kg every 48 h to 10 mg/kg every 24 h were administered for 15.4 ± 11.8 days. 87.0 % of the cases were classified as success, 7.2 % as treatment failure and 5.8 as non-evaluable. Adverse events were limited to one case of mild and one case of moderate neutropenia with recovery upon termination of treatment.
Conclusion: Daptomycin proved safe and effective in major infection in high-risk cardiac surgical patients.
A small collection of Odonata from Nuku Hiva Island, Marquesas Islands is presented. It adds Anax guttatus as a new species to this oceanic group. Hemicordulia sp. nov. is reported, but not described because the same species has been sampled before and is pending a formal description. A short taxonomic discussion on observed morphological similarity of male anal appendages in taxa presently assigned to Amorphostigma, Hivaagrion and Ischnura east of New Caledonia is provided. Important considerations for biogeography of the Pacific Odonata are discussed too.
New data on Odonata of the Guadalcanal Island, Solomon Islands are provided following a recently completed Rapid Biodiversity Assessment of the Tetena Haiaja ridge. Two new species, Lieftinckia ulunorum and Procordulia valevahalo are described.
The first is a new member of the Solomon Islands endemic genus while the second is a new genus for the country and the second validated species from the Corduliidae family known from this Pacific archipelago. As L. ulunorum is found to be very closely related to formerly known L. lairdi Lieftinck, 1963, which was also collected during the field trip, both are described in detail based on mature adults and teneral specimens. Comparison with L. salomonis Kimmins, 1957 (investigated only from figures published in the original species description) and Salomoncnemis gerdae Lieftinck, 1987 (also sampled during this study) were provided as well.
Additional morphological data is given on the following species: Teinobasis bradleyi Kimmins, 1957, female is illustrated here for the first time; Anax sp. cf. gibbosulus, second record of the genus for the country and Gynacantha amphora Marinov & Theischinger, 2012, originally described by a single male, here the description of the female is provided.
All other species collected during the field trip will be published separately in the final expedition report.
The results of a short collecting trip to Perlis in the northwest
of Peninsular Malaysia are reported. Eighty three species were collected, at least 61 of these are new records for the state, and three species are recorded from Malaysia for the first time: Euphaea
masoni Selys, 1879, Archibasis oscillans (Selys, 1877) and Paracercion calamorum (Ris, 1916). A checklist of the Odonata recorded from Perlis is given in an appendix.
This PhD thesis has been carried out within an interdisciplinary cooperational project between the Deutsches Bergbau-Museum Bochum and the Goethe-Universität Frankfurt, which is dedicated to ancient Pb-Ag mining and metal production in the hinterland of the municipium Ulpiana in central Kosovo. Geochemical analysis (OM, XRD, EMP, MC-ICP-MS) of ores, metallurgical (by-) products and metal artefacts allowed to reconstruct the local chaîne opératoire and to decipher significant chronological differences between presumably Roman/late antique and medieval/early modern metallurgical processing. Pb isotope provenance studies documented the relevance of local metal production within the Roman Empire and confirmed the actual existence of a Metalla Dardanica district, which until now solely has been suspected on basis of epigraphy.
The predominant abundance of the by-products matte (Cu, Pb, Fe and Zn sulphides) and speiss (ferrous speiss: Fe-As compounds; base metal speiss: ~(Cu,Ni,Fe,Ag )x(Sb,Sn,As )y ) at smelting sites with a preliminary Roman/late antique dating points to treatment of complex polymetallic ore. Pb isotope analysis demonstrated that the mining district of Shashkoc-Janjevo (partially) supplied six of the ten investigated metallurgical sites. In this mineralisation, parageneses with elevated Cu, As and Sb abundances comprise significant proportions of particularly tennantite-tetrahedrite minerals, chalcopyrite, arsenopyrite and were generated during the early and main stages of ore formation. Later precipitated ore in contrast is marked by a significantly less versatile mineralogy and consists almost exclusively of galena, sphalerite and pyrite/marcasite. Besides increased Cu, As and Sb contents, ore from the main formation stage also exhibits generally higher Ag abundances, which are mainly hosted by fahlore and locally abundant secondary Cu sulphides (chalcocite, digenite and covellite) and oxidised phases (e.g. malachite, azurite). The higher precious metal grades of this ore type, whose geochemical signature (i.e. higher proportions of Cu, As and Sb) is mirrored by the abundance of the metallurgical by-products matte and speiss (almost exclusively found at potentially Roman/late antique smelting sites; see above), presumably were a pivotal factor leading to its preferential exploitation in earlier times. Matte and base metal-rich speiss contain notable amounts of Ag, which are mainly present in Cu-(Fe) sulphides and particularly antimonides ((Cu,Ni)2Sb, Ag3Sb), respectively. While the speiss compounds due to their close association with Pb bullion presumably were cupelled automatically, the metallurgical treatment of matte could not have been proven unambiguously, but overall certainly is highly likely.
The beneficiated ore (i.e. crushed and sorted, potentially also treated by more lavish techniques such as grinding, sieving or wet-mechanical methods) possibly was partially roasted and subsequently together with fluxes and charcoal submitted to the furnaces. The working temperatures approximately ranged between 1100 and 1400 °C. Slags from all presumably Roman/late antique dated and few of their potentially medieval/early modern analogues were produced from smelting of (partially roasted) ore with charcoal and added siliceous material, thus resulting in fayalite-dominant phase assemblages or rarely observed glassy parageneses. Even though several subtypes of fayalite slags have been established on basis of the abundance of Fe-rich oxide phases (i.e. spinel ss and wüstite), late clinopyroxene and the general solidification sequence of the slags, the process conditions (i.e. temperature, fO2, added fluxing agents) must have been widely similar; chemical variations could be explained by varying degrees of interaction of the slag melt with charcoal ash and furnace material. The other investigated metallurgical remains indicate employment of a calcareous flux, which led to formation of Ca-rich olivine-, olivine+clinopyroxene-, clinopyroxene- or melilite-type slags. These types as well as glassy slags were generated at more oxidising conditions outside the fayalite stability field (FMQ buffer equilibrium, cf. Lindsley, 1976) than their olivine-dominant analogues. Conclusions on the furnace construction could be drawn on basis of the typology of the slags, which mostly were tapped into a basin located outside the furnace, but partially (at two presumably medieval/early modern sites) also accumulated in a reservoir within the smelter.
Lead artefacts excavated in Ulpiana could be isotopically related to ores from mineralisations in its vicinity and demonstrate that the resources were at least utilised for local metal production. However, also ship wreck cargo from Israel - including several lead ingots with the inscription 'MET DARD' (Raban, 1999) - and late antique lead-glazed pottery from Serbia and Romania (Walton & Tite, 2010) could be related to a possible Kosovarian/Serbian provenance of the raw material and thus indicate flourishing trade of metal from the Metalla Dardanica district within the Roman Empire.
References:
Lindsley, D. H. (1976). Experimental studies of oxide minerals. In D. Rumble, III (Hrsg.), Oxide minerals (61-88). Reviews in Mineralogy, Volume 3. Washington, DC: Mineralogical Society of America.
Raban, A. (1999). The lead ingots from the wreck site (area K8). Journal of Roman Archaeology, Supplementary Series, 35, 179-188.
Walton, M. S., & Tite, M. S. (2010). Production technology of Roman lead-glazed pottery and its continuance into late antiquity. Archaeometry, 52(5), 733-759.
Records of Odonata collected in the vicinity of the Borneo Highlands Resort on Gunung Penrissen in south western Sarawak in the period 2014-2016 are presented.
Notable records include new species of Telosticta Dow & Orr, 2012, Rhinocypha Rambur, 1842 and Leptogomphus Selys, 1878, as well as the first record of the recently described genus Borneogomphus Karube & Sasamoto, 2014 from Sarawak.