CompaRe | Allgemeine und Vergleichende Literaturwissenschaft
Refine
Year of publication
Document Type
- Part of a Book (8)
- Article (5)
- Part of Periodical (2)
- Review (2)
- Conference Proceeding (1)
Has Fulltext
- yes (18)
Is part of the Bibliography
- no (18)
Keywords
- Naturwissenschaften (18) (remove)
Institute
- Extern (1)
Die in Deutschland seit etwa den 80er Jahren andauernde Konjunktur der Kulturwissenschaften, die nicht mit den aus Konzepten der Birmingham-School hervorgegangenen Cultural Studies zu verwechseln sind, führt als ihr theoriegeschichtliches Apriori den Diskurs über Differenzen zwischen Natur- und Geisteswissenschaften mit sich, dessen Konstellation im 19. Jahrhundert Wilhelm Dilthey 1910 in Gestalt eines Standardwerkes beschrieben hat. Die vor fast fünfzig Jahren von dem englischen Physiker und Romancier Percy Charles Snow getroffene Diagnose zweier sich entfremdet und kommunikationslos gegenüberstehender Kulturen, einer traditionalistisch literarischen und einer naturwissenschaftlichen, deren Trennung Snow als ein Problem analysierte und als ein Dilemma beklagte, wurde entgegen der Absicht ihres Erfinders zu einem ebenso bequemen wie die aufgerufenen Probleme verwirrenden Schema kanonisiert. Verwirrend war (und bleibt) der Dualismus eines Modells, das von Befürwortern wie Gegnern als Voraussetzung angenommen wurde und schließlich sogar durch Anbauten einer dritten (soziologischen) Kultur erweitert und ergänzt wurde, der Wolf Lepenies im Vergleich zwischen Frankreich, England und Deutschland eine wissenschaftsgeschichtliche Begründung zu geben versuchte. "Seit der Auseinandersetzung zwischen P. C. Snow und F. R. Leavis ist der Gegensatz von Natur- und Geisteswissenschaften zum Schlagwort von den zwei Kulturen geworden. Ich bin der Auffassung, dass man die Sozialwissenschaften als eine dritte Kultur bezeichnen kann, in der seit ihrem Entstehen szientifische und literarische Orientierungen einander gegenüberstehen."
Die Wissenschaftshistorikerin Jimena Canales setzt Benjamins Kunstwerk-Aufsatz und die "Kleine Geschichte der Photographie" in ihren wissenschaftshistorischen Kontext. Seine Reflexionen zur Fotografie stehen, so Canales, paradigmatisch für eine veränderte Wahrnehmung der Fotografie, die von den Zeitgenossen nicht länger als originalgetreue, sondern künstliche Abbildung der Wirklichkeit angesehen wird. Benjamins Analogie von Fotografie und Psychoanalyse nimmt Canales zum Anlass, die Trennung von Natur- und Geisteswissenschaft und die damit verbundene strikte Abgrenzung von hermeneutischen und experimentellen Methoden in Frage zu stellen.
Walter Benjamin fordert, die "undialektische Trennung zu überprüfen, die man zwischen Natur- und Geisteswissenschaft zu etablieren suchte". Damit beabsichtigt er, die Geisteswissenschaften zu modernisieren, deren wahre Bestimmung er in der Auseinandersetzung mit den aktuellen Phänomenen der Gegenwart sieht. Im Aufsatz wird gezeigt, dass Benjamin die Trennung von Natur- und Geisteswissenschaft mithilfe der dialektischen Methode, die er dem historischen Materialismus entlehnt, zu überwinden beabsichtigt. Anstatt eines unversöhnlichen Gegensatzes geht er von einer Dialektik von Natur- und Geisteswissenschaften aus.
Innerhalb des kulturellen Kontextes des vereinten Italien ist die unmittelbare Nähe von Wissenschaft und Unterhaltung von primärer Bedeutung. Einer der Gründe dafür war die "Theatralisierung der Wissenschaft" - ein Phänomen, das im neunzehnten Jahrhundert weit verbreitet war. In den 1860er und 70er Jahren gab es besonders in Mailand eine große Anzahl von Vorführungen, bei denen Phantaskope eingesetzt wurden und die sich außerordentlicher Beliebtheit erfreuten. Die überraschende Wirkung phantasmagorischer Aufführungen wurde durch Phänomene wie Magnetismus und Spiritismus verstärkt. Beide Kuriosa verbreiteten sich zu jener Zeit in Italien und stellten eine strikte Scheidung zwischen Wissenschaft und Unterhaltung in Frage. Im Folgenden werden die aufschlussreichsten Äußerungen dieser kulturellen Situation in einer Reihe populärer und politischer Zeitschriften der 1860er und 70er Jahre untersucht. Dabei ist von Interesse, dass mittels eben dieser Zeitschriften zum ersten Mal phantastische Literatur Eingang in die literarische Szene Italiens fand. Untersucht werden insbesondere Formen des Phantastischen, die durch die Interpretation von Phantasmagorien in einer Auswahl nicht-fiktionaler Texte noch verstärkt wurden. Es wird deutlich, dass in Italien zu dieser Zeit Phantasmagorien-Vorstellungen mit der politischen Rhetorik eng verwoben waren.
Die naturwissenschaftlichen Diskurse des 19. Jahrhunderts sprachen neben den 'Bildern' von einer ganzen Reihe weiterer Dinge, welche Wissensgegenstände repräsentieren konnten, auch ohne Modelle im damaligen Sinn zu sein. Weite Verbreitung fanden im 19. Jahrhundert in dieser Funktion insbesondere die Begriffe der 'Analogien', 'Interpretationen' und der 'Systeme' von wirklichen oder gedachten Dingen. Die Beispiele, die mit solchen Begriffen verbunden waren, sind häufig für die Wissenschaftsentwicklung von substanzieller Bedeutung gewesen. Sie stehen aber, wie ich im Folgenden andeuten möchte, für ganz unterschiedliche Formen und Funktionen der abstrakten Repräsentation. Den Begriff 'abstrakte Repräsentation' verwende ich hierbei etwas vage und naiv als schlichten Oberbegriff für verschiedene Weisen, einen Komplex von wissenschaftlich interessierenden Dingen oder Sachverhalten durch etwas anderes darzustellen und für die wissenschaftliche Praxis zu thematisieren, ohne dabei auf materielle, anfassbare Dinge zurückzugreifen, wie dies die 'Modelle' in der Sprache des 19. Jahrhunderts taten. Zugleich soll dadurch ('pace' Wittgenstein und unangesehen der inflationären Verwendung des Modellbegriffs seit Mitte des 20. Jahrhunderts) vermieden werden, vorschnell von einem 'Denken in Modellen' zu reden. Wir werden noch sehen, dass die in Rede stehenden, abstrakten Repräsentationen bisweilen sehr konkrete epistemische Funktionen hatten. Das Wort 'abstrakt' sollte hier also nicht überbewertet werden. Insbesondere möchte ich im Folgenden jeweils die spezifische 'epistemische Situation' charakterisieren, d.h. die Besonderheiten der Wissensumstände, in welchen der Rückgriff auf eine Form der abstrakten Repräsentation geschah und den Beteiligten vielversprechend erschien.
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.
Sophie-C. Hartisch untersucht die Funktion der Konstellationsmetapher im Diskurs der geisteswissenschaftlichen Selbstbeschreibungen im frühen 20. Jahrhundert. Die doppelte Grundlagenkrise sowohl der Naturwissenschaften als auch der historisch arbeitenden Geisteswissenschaften bewirken in ihren Augen die Attraktivität eines Denkens in 'Konstellationen'. Mit der (streng genommen) falschen Suggestion eines sogenannten 'Sternbildes' würden abstrakte Strukturen vermeintlich anschaulich und könne Totalität als "Kippfigur zwischen Werden und Darstellung" repräsentiert werden, die die Ganzes-Teil-Problematik neu konfiguriere. Zwar verspreche die 'Konstellation', die Geisteswissenschaften mittels einer Anlehnung an die Astronomie gegen die zeitgenössischen Naturwissenschaften zu profilieren. Allerdings ist die für die Konstellation zentrale Kategorie der 'Bedeutsamkeit' (der Sterne) keine astronomische, sondern eine astrologische Vorstellung. Die als Pseudowissenschaft verpönte Astrologie wird in den Geisteswissenschaften unter der Hand zum Garanten für die Legitimität und Objektivität historisch ausgerichteter Wissenschaften.
Helmholtz, Mach, Schönberg. Zwei Wissenschaftler und ein Künstler, die ein neues Konzept zur Strukturierung akustischen Materials umkreisen. Sie finden mit der musikalischen Notation und der physikalischen Abbildung eine doppelte Sichtbarkeit des Hörbaren vor. Eine Sichtbarkeit, die sich dem künstlerischen und wissenschaftlichen Gebrauch organischer und mechanischer Instrumente verdankt. Zwei Wissensordnungen, zwei Objektklassen. Einmal Musiktheorie, die das akustische Material nach Zahlverwandtschaften ordnet, dann Naturwissenschaft, die es mathematisiert. Einmal die organischen Handlungspaare Auge/Hand und Ohr/ Stimme für Sichtbares und Hörbares, und dann die damit verbundenen mechanischen Instrumente der Klangaufzeichnung und Klangerzeugung. Die Ordnungen vermischen sich nicht, aber ihre Verflechtungen führen zu einer Verschiebung der symbolischen Konfiguration, und aus den Tonempfindungen, die bisher natürlichen Klangeigenschaften zugeschrieben worden waren, lassen sich nun bearbeitbare Reihen punktueller Elementarempfindungen bilden. Pierre Boulez wird diese Bewegung begrüßen: "man kann sehr wohl sagen, daß die Ära Rameaus mit ihren 'natürlichen' Prinzipien endgültig außer Kurs gesetzt ist; darum müssen wir aber noch lange nicht aufhören, uns die anschaulichen Modelle [...] zu suchen und auszudenken." Sein anschauliches Modell ist der Gegensatz von Kerbung und Glättung. Kerbung verstanden als jene Strukturierung des Akustischen, die sich durch den Punkt charakterisieren lässt, Glättung als die Aufhebung dieser vorgegebenen Kerbung mit Hilfe neuer Techniken. Gilles Deleuze und Félix Guattari übernehmen diese Unterscheidung und führen sie in ihren 'Tausend Plateaus' als technische, künstlerische und wissenschaftliche durch. Beispielhaft setzen sie das Gewebe gegen den Filz, die aus Längs- und Querfäden gebildeten Rasterpunkte gegen die gleichmäßige Verdichtung zufällig angeordneter, unverbundener Einzelfäden. Am Ende seiner 'Lehre von den Tonempfindungen' findet auch Hermann von Helmholtz für die musikalische Strukturierung des akustischen Materials einen solchen handwerklichen Vergleich. "Ja dadurch, dass die Musik den stufenweisen Fortschritt im Rhythmus und in der Tonleiter einführt, macht sie sich eine auch nur angenäherte Naturnachahmung geradezu unmöglich, denn die meisten leidenschaftlichen Affektionen der Stimme charakterisiren sich gerade durch schleifende Uebergange der Tonhohe. Die Naturnachahmung in der Musik ist dadurch in derselben Weise unvollkommen geworden, wie die Nachahmung eines Gemäldes durch eine Straminstickerei in abgesetzten Quadraten und abgesetzten Farbtönen." Dieser stufenweise Fortschritt gegen die Natur verdankt sich dem Zusammenspiel von Stimme und Instrument, das sichtbare Stufen in das hörbare Kontinuum melodischer Bewegungen kerbt. Eine Kerbung, welche die Grundlage eines musiktheoretischen Systems bildet, das bis zu seiner Revolutionierung Anfang des 20. Jahrhunderts seine Gültigkeit hat. Eine Kerbung, die sich der Verbindung und wechselseitigen Nachahmung des organischen Instruments Stimme mit den Musikinstrumenten verdankt. Eine Kerbung, die beständig vollzogen werden muss, und zwar gleichermaßen durch die Übung der inneren Klangvorstellung (dem eigentlichen Hören der gewählten Parameter) und der äußeren Klangverschriftung (der Kontrolle durch das Sichtbare). Alle Tonzeichen innerhalb dieses gekerbten Klangraumes haben ihre Gültigkeit nur in Bezug auf das zugrunde liegende Tonsystem. Der folgende Text wird versuchen einige Motive des Umsturzes dieses Systems zu verfolgen, die zeitgleich in Naturwissenschaft und Musiktheorie zu finden sind.
I shall take a look at a cluster of problems: the relation between fictional and actual worlds, between fictionality and narration, between action and rationality, between action and agent or subject, and between world, enunciation and subject in light of two important theoretical works, both from 1991. My choice of references is not entirely arbitrary: their basic approach shows certain similarities that underline the shortcomings of both in dealing with literature, in spite of the stimulating arguments they unfold. But they also show marked differences that allow us to develop their argument further. The books are Paisley Livingston's 'Literature and Rationality' and Marie-Laure Ryan's 'Possible Worlds, Artificial Intelligence, and Narrative Theory'.