Refine
Year of publication
Document Type
- Article (30512)
- Part of Periodical (11870)
- Book (8231)
- Doctoral Thesis (5594)
- Part of a Book (3869)
- Working Paper (3371)
- Review (2921)
- Contribution to a Periodical (2278)
- Preprint (1809)
- Report (1561)
Language
- German (42692)
- English (28429)
- French (1071)
- Portuguese (843)
- Multiple languages (312)
- Spanish (309)
- Croatian (302)
- Italian (197)
- mis (174)
- Turkish (168)
Keywords
- Deutsch (1082)
- Literatur (862)
- taxonomy (738)
- Deutschland (551)
- Rezension (511)
- new species (438)
- Rezeption (349)
- Frankfurt <Main> / Universität (341)
- Übersetzung (311)
- Geschichte (300)
Institute
- Medizin (7371)
- Präsidium (5082)
- Physik (4114)
- Extern (2742)
- Wirtschaftswissenschaften (2657)
- Gesellschaftswissenschaften (2366)
- Biowissenschaften (2111)
- Biochemie und Chemie (1950)
- Center for Financial Studies (CFS) (1609)
- Informatik (1577)
In den Jahren um 1900 explodiert in Deutschland die sprachwissenschaftliche und sprachtheoretische 'Szene'. Alles, was in den nationalphilologischen Synthesen des 19. Jahrhunderts keinen Platz finden konnte, drängt spätestens jetzt zurück in das Licht der akademischen Öffentlichkeit. Nicht oder kaum akademisierte Unterströmungen wie die Sprachpsychologie, die Schulgrammatik, die Semantik, die Semiotik machen von sich reden. Bei weitem nicht alles wirkt dann tatsächlich auf die akademische Sprachwissenschaft. Diese sprachwissenschaftliche 'Überfülle' ist erst gebändigt worden in der Rezeption des kanonischen 'Cours de linguistique générale' Saussures, die einigermaßen erfolgreich den "eigentlichen" Gegenstand der Sprachwissenschaft als 'langue', als synchronisch zu fassendes einzelsprachliches Zeichensystem, zu fixieren suchte. All das ist historiographisch gut erforscht. Su gut wie überhaupt nicht im Blick der Historiographen ist hingegen die ebenfalls um 1900 erstmals erscheinende sprachwissenschaftliche Problemlinie, die später zu einer ebenfalls wirkmächtigen soziologisch-kommunikativen Sprachauffassung hinführt. Gute und gründliche Arbeiten gibt es zwar zur Vor- und Frühgeschichte der "Pragmatik", aber kaum untersucht ist die Vorgeschichte dessen, was heute entweder politische Begriffsgeschichte, Diskursanalyse oder Politolinguistik heißt. Das hängt gewiss damit zusammen, dass in Diskursanalyse und Begriffsgeschichte keineswegs nur (noch nicht einmal hauptsächlich) sprachwissenschaftliche Traditionen zusammenlaufen, sondern eben auch soziologische, politologische, philosophische. Ein bloßer Vortrag, versteht sich, kann diese Lücke nicht füllen. Ich will gleichwohl versuchen, wenigstens einen Strang aus dem einschlägigen problemgeschichtlichen Bündel zu ziehen - und der beginnt mit Karl Otto Erdmann.
Die stetig wachsende Menge an digital verfügbarem, zeitgenössischem wie historischem Textmaterial bietet für die begriffsgeschichtliche Forschung Chancen und Herausforderungen: Während die fortschreitende Digitalisierung die Verfügbarkeit erforschbaren Materials deutlich erhöht, resultiert aus der verbesserten Auffindbarkeit potentieller Quellen eine schwindende Übersicht dessen, was für begriffsgeschichtliche Studien überhaupt in Betracht zu ziehen ist. Am Beispiel der Begriffe Netz, Netzwerk und Vernetzung erproben wir quantitative, semi-automatische Ansätze für eine digitale Begriffsgeschichte. Dafür identifizieren wir zunächst die Beschränkungen des Tools Google Ngrams, das weder für die Analyse von Wortbedeutungen noch für die Bestimmung der Kontexte von Wortverwendungen geeignet ist. Demgegenüber erörtern wir die Vorzüge einer hier erstmals im Kontext begriffsgeschichtlicher Forschung vorgestellten Methode der vorwissensfreien Bedeutungsinduktion, die semantische Aspekte gesuchter Begriffsworte automatisch ermittelt, deren typische und untypische Verwendungskontexte aggregiert, Wortfelder kartiert und durch einen geeigneten Index die Möglichkeit bietet, Belegstellen zu betrachten sowie die Veränderung von Wortbedeutungen im Laufe eines gegebenen Zeitraums zu analysieren. Mittels dieser interaktiven, semi-automatischen Methode lässt sich für den deutschen Sprachraum nachweisen, dass sich zu Beginn des 21. Jahrhunderts ein Problemdiskurs über Netzwerke entwickelt, mit dem sich ein Wandel der Semantik des Begriffswortes erklären lässt. Mit dem vorgestellten Verfahren lässt sich auch die Bedeutung komplexer metaphorischer Prozesse für den zu erklärenden Begriffswandel erschließen.
Semantische Kämpfe gehören zum Alltag, die Gegenwart ist geradezu erfüllt von ihnen, denn "Herrschaft und Macht werden auch über Semantik ausgeübt". Man möchte deshalb meinen, dass sie einfach zum Sprachgebrauch gehören und seit jeher unsere verbalen Auseinandersetzungen begleiten. Ob das richtig ist, kann und soll hier gar nicht untersucht werden, Historiker sind dafür eher ungeeignet. Seit wann sie aber in unser Bewusstsein getreten sind und weshalb, ist eine Frage, zu der die Begriffsgeschichte durchaus etwas beizutragen hat. Es verdient darum Interesse, den weit über Deutschland hinaus bekannten Historiker der Ideen und Begriffe, den 2006 verstorbenen Reinhart Koselleck, auf seinem Weg vom hochgradig ideologisierten Konzept semantischer Kämpfe zur radikal historisierten Begriffsgeschichte zu begleiten, weil einige seiner dabei gemachten Einsichten ganz allgemein zu verstehen helfen, wie in Europa sprachlich die Moderne entstand und welchen Verlauf sie genommen hat.
Rahel Jaeggi und Tilo Wesche erstellen im Sammelband 'Was ist Kritik?' eine präzise Kartographie der historischen Hauptbedeutungen dieses Begriffes, wobei sie vier Formen unterscheiden: 1) Aufklärung oder Zeitalter der Kritik, 2) historische Kritik, 3) emanzipatorische Kritik oder intellektuelle Tugend und 4) philosophische Kritik. Alle vier Formen sind mit eigenen Nuancen im Werk von Reinhart Koselleck zu finden, der, wie bekannt, nicht im Bann der sogenannten Frankfurter Schule stand. Er hat sich mit der 'Aufklärung als Zeitalter der Kritik' auseinandergesetzt und sogar von der "Dialektik der Aufklärung" gesprochen, genauer gesagt von der Dialektik von Politik und Moral in der Neuzeit. In Form einer Metakritik bzw. einer "Aufklärung über die Aufklärung" unterzog er deren ideologische Pervertierung der Moral einer bissigen Kritik. Koselleck meinte, diese perfide Dialektik, die moralisierende Politik, sei nicht obsolet geworden, sondern sie habe zu den Weltanschauungskriegen des 20. Jahrhunderts geführt. Er kultivierte keine moralische Enthaltung oder Abstinenz, aber er war mit den Exzessen des Moralismus vertraut und misstraute ihnen deshalb.
'Die Zukunft kommt von selbst - der Fortschritt nur mit uns' war das Motto eines SPD-Parteitages im Jahr 1988 in Münster. Dieses Motto verrät nicht nur etwas darüber, wie der Begriff des Fortschritts interpretiert wurde (dass Fortschritt nämlich im Unterschied zur Zukunft nicht automatisch eintritt, sondern politisch 'gemacht' werden muss und dass er, im Gegensatz zur unbestimmten Zukunft, kommen 'soll'), sondern zeigt vor allem, dass gerade dieser Begriff und der mit ihm verbundene politische Gestaltungsanspruch als wesentliches Distinktionsmerkmal zum politischen Gegner herausgestellt wurde. Die Beschlüsse, die 2016 auf dem Parteikonvent der SPD gefasst wurden, standen unter dem Motto 'Fortschritt und Gerechtigkeit'. Dieses Begriffspaar, so erklärte der Bundesvorsitzende Sigmar Gabriel, sei die "Seele der Partei". Die Selbstbeschreibung als Partei des Fortschritts vereinfacht aber die Sache. Wie gezeigt werden soll, hat die Rede über Fortschritt in der Sozialdemokratie eine wechselvolle und ambivalente Geschichte, angesichts derer der heutige, recht ungebrochene Bezug auf das Schlagwort Fortschritt doch ein wenig überrascht. Der Geschichte des Fortschrittsbegriffs in der deutschen Sozialdemokratie soll im Folgenden in einigen wichtigen Momenten durch eine Untersuchung der Programmtexte nachgegangen werden. Dazu wurde auch auf die Methoden der digitalen Korpusanalyse zurückgegriffen. Der Schwerpunkt liegt in diesem Beitrag auf der Herausbildung und der Erosion der 'klassischen' Prägung des Fortschrittsbegriffs in der SPD in der Bundesrepublik. Er wurde nach der Neuausrichtung der SPD beim Parteitag in Bad Godesberg 1959 in besonderer Weise mit benachbarten Kategorien gekoppelt und hat so die grundlegende politische Zielsetzung und das Selbstbild der Partei nachhaltig geprägt.
Die zunehmende Verbreitung des Internets als universelles Netzwerk zum Transport von Daten aller Art hat in den letzten zwei Dekaden dazu geführt, dass die anfallenden Datenmengen von traditionellen Datenbanksystemen kaum mehr effektiv zu verarbeiten sind. Das liegt zum einen darin, dass ein immer größerer Teil der Erdbevölkerung Zugang zum Internet hat, zum Beispiel via
Internet-fähigen Smartphones, und dessen Dienste nutzen möchte. Zudem tragen immer höhere verfügbare Bandbreiten für den Internetzugang dazu bei, dass die weltweit erzeugten Informationen mittlerweile exponentiell steigen.
Das führte zur Entwicklung und Implementierung von Technologien, um diese immensen Datenmengen wirksam verarbeiten zu können. Diese Technologien können unter dem Sammelbegriff "Big Data" zusammengefasst werden und beschreiben dabei Verfahren, um strukturierte und unstrukturierte Informationen im Tera- und Exabyte-Bereich sogar in Echtzeit verarbeiten zu können. Als Basis dienen dabei Datenbanksysteme, da sie ein bewährtes und praktisches Mittel sind, um Informationen zu strukturieren, zu organisieren, zu manipulieren und effektiv abrufen zu können. Wie bereits erwähnt, hat sich herausgestellt, dass traditionelle Datenbanksysteme, die auf dem relationalen Datenmodell basieren, nun mit Datenmengen konfrontiert sind, mit denen sie nicht sehr gut hinsichtlich der Performance und dem Energieverbrauch skalieren. Dieser Umstand führte zu der Entwicklung von spezialisierten Datenbanksystemen, die andere Daten- und Speichermodelle implementieren und für diese eine deutlich höhere Performance bieten.
Zusätzlich erfordern Datenbanksysteme im Umfeld von "Big Data" wesentlich größere Investitionen in die Anzahl von Servern, was dazu geführt hat, dass immer mehr große und sehr große Datenverarbeitungszentren entstanden sind. In der Zwischenzeit sind die Aufwendungen für Energie zum Betrieb und Kühlen dieser Zentren ein signifikanter Kostenfaktor geworden. Dementsprechend sind bereits Anstrengungen unternommen worden, das Themenfeld Energieeffizienz (die Relation zwischen Performance und Energieverbrauch) von Datenbanksystemen eingehender zu untersuchen.
Mittlerweile sind über 150 Datenbanksysteme bekannt, die ihre eigenen Stärken und Schwächen in Bezug auf Performance, Energieverbrauch und schlussendlich Energieeffizienz haben. Die Endanwender von Datenbanksystemen sehen sich nun in der schwierigen Situation, für einen gegebenen Anwendungsfall das geeigneteste Datenbanksystem in Hinblick auf die genannten Faktoren zu ermitteln. Der Grund dafür ist, dass kaum objektive und unabhängige Vergleichszahlen zur Entscheidungsfindung existieren und dass die Ermittlung von Vergleichszahlen zumeist über die Ausführung von Benchmarks auf verschiedensten technischen Plattformen geschieht. Es ist offensichtlich, dass die mehrfache Ausführung eines Benchmarks mit unterschiedlichsten Parametern (unter anderem die Datenmenge, andere Kombinationen aus technischen Komponenten, Betriebssystem) große Investitionen in Zeit und Technik erfordern, um möglichst breit gefächerte Vergleichszahlen zu erhalten.
Eine Möglichkeit ist es, die Ausführung eines Benchmarks zu simulieren anstatt ihn real zu absolvieren, um die Investitionen in Technik und vor allem Zeit zu minimieren. Diese Simulationen haben auch den Vorteil, dass zum Beispiel die Entwickler von Datenbanksystemen die Auswirkungen auf Performance und Energieeffizienz bei der Änderungen an der Architektur simulieren können anstatt sie durch langwierige Regressionstests evaluieren zu müssen. Damit solche Simulationen eine praktische Relevanz erlangen können, muss natürlich die Differenz zwischen den simulierten und den real gewonnenen Vergleichsmetriken möglichst klein sein. Zudem muss eine geeignete Simulation eine möglichst große Anzahl an Datenbanksystemen und technischen Komponenten nachstellen können.
Die vorliegende Dissertation zeigt, dass eine solche Simulation realistisch ist. Dafür wurde in einem ersten Schritt die Einflussaktoren auf Performance, Energieverbrauch und Energieeffizienz eines Datenbanksystems ermittelt und deren Wirkung anhand von experimentellen Ergebnissen bestimmt. Zusätzlich wurden auch geeignete Metriken und generelle Eigenschaften von Datenbanksystemen und von Benchmarks evaluiert. In einem zweiten Schritt wurde dann ein geeignetes Simulationsmodell erarbeitet und sukzessiv weiterentwickelt. Bei jedem Entwicklungsschritt wurden dann reale Experimente in Form von Benchmarkausführungen für verschiedenste Datenbanksysteme und technische Plattformen durchgeführt. Diese Experimente wurden mittels des Simulationsmodells nachvollzogen, um die Differenz zwischen realen und simulierten Benchmarkergebnissen zu berechnen. Die Ergebnisse des letzten Entwicklungsschrittes zeigen, dass diese Differenz unter acht Prozent liegt. Die vorliegende Dissertation zeigt auch, dass das Simulationsmodell nicht nur dazu geeignet ist, anerkannte Benchmarks zu simulieren, sondern sich im allgemeinen auch dafür eignet, ein Datenbanksystem und die technische Plattform, auf der es ausgeführt wird, generell zu simulieren. Das ermöglicht auch die Simulation anderer Anwendungsfälle, zum Beispiel Regressionstests.
"Wellenformen" : die Leistung mathematischer Modellbildung für Akustik, Physiologie und Musiktheorie
(2016)
Im Jahr 1857 hält Hermann von Helmholtz einen Vortrag 'Ueber die physiologischen Ursachen der musikalischen Harmonien', in dem er erstmals Ergebnisse seiner akustischen und hörphysiologischen Forschungen einer akademischen Öffentlichkeit vorstellt. Dabei bilden die Untersuchungen und Experimente, die Helmholtz im Rahmen seiner Tätigkeit als Professor für Anatomie und Physiologie an der Universität Bonn durchgeführt hat, Grundlage und Ausgangspunkt einer umfassenden Neukonstitution von Wissenszusammenhängen, in deren Zuge ältere Wissensbestände arrondiert, im Lichte neuer Erkenntnisse bewertet, erweitert, neu gefasst und in ausgearbeiteter Form sechs Jahre später unter dem Titel 'Die Lehre von den Tonempfindungen' veröffentlicht werden. In den einleitenden Worten seines Vortrages aus dem Jahr 1857 verweist Helmholtz in diesem Kontext auf einen Aspekt, der ihm offenkundig von großer Signifikanz zu sein scheint:
"Es hat mich immer als ein wunderbares und besonders interessantes Geheimnis angezogen, dass gerade in der Lehre von den Tönen, in den physikalischen und technischen Fundamenten der Musik, die unter allen Künsten in ihrer Wirkung auf das Gemüth als die stoffloseste, flüchtigste und zarteste Urheberin unberechenbarer und unbeschreiblicher Stimmungen erscheint, die Wissenschaft des reinsten und consequentesten Denkens, die Mathematik, sich so fruchtbar erwies."
Bemerkenswert an dieser Aussage ist nicht, dass Musik und Mathematik in eine enge Beziehung zueinander gesetzt werden - hier kann Helmholtz auf eine über zweitausendjährige Tradition der wechselseitigen Elaboration beider Bereiche verweisen -, sondern dass Darlegungen, die auf die systematische Durchdringung der Zusammenhänge zwischen akustischen, physiologischen, psychischen, musiktheoretischen und ästhetischen Phänomenbereichen zielen, ihren Ausgangspunkt in der Mathematik nehmen. Diesen Leistungen, die mathematisches Denken für die Untersuchung und Explikation dieser Zusammenhänge erbringt, möchte der folgende Beitrag nachgehen. Es wird sich zeigen, dass eine spezifische mathematische Operation für das Verständnis von akustischen und physiologischen Prozessen modellbildend wirkt und über verschiedene Applikationswege hinweg neue Impulse der Systematisierung von Wissensbeständen setzt.
Klima wird in der industriellen Moderne zum Problem des Wissens. Anders als das Wetter ist das Klima der direkten Wahrnehmung entzogen; ein Umstand, der paradoxerweise immer problematischer zu werden scheint, je mehr Wissen über die komplexen Zusammenhänge von lokalen Wetterereignissen und globalem Klima existiert. Das moderne Klima ist ein wandelbares, globales Phänomen, dessen Erkenntnis doppelt vermittelt ist, insofern es weder sinnlich erfahrbar noch verstandesmäßig erfassbar und somit auf Modellierung angewiesen ist. Diese findet jedoch nicht allein im wissenschaftlichen Kontext statt. Vielmehr ist die Herstellung von Klima als Bedingung von (Lebens-)Wirklichkeit und Zukunft trotz ihres unterschiedlichen epistemischen Status das Ergebnis wechselseitiger Einflussnahme wissenschaftlicher und nicht-wissenschaftlicher Modelle.