Refine
Year of publication
Document Type
- Article (30752)
- Part of Periodical (11923)
- Book (8316)
- Doctoral Thesis (5735)
- Part of a Book (3721)
- Working Paper (3388)
- Review (2878)
- Contribution to a Periodical (2369)
- Preprint (2213)
- Report (1544)
Language
- German (42603)
- English (29587)
- French (1067)
- Portuguese (723)
- Multiple languages (314)
- Croatian (302)
- Spanish (301)
- Italian (195)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (75739) (remove)
Keywords
- Deutsch (1038)
- Literatur (809)
- taxonomy (766)
- Deutschland (543)
- Rezension (491)
- new species (453)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Übersetzung (271)
Institute
- Medizin (7773)
- Präsidium (5232)
- Physik (4569)
- Wirtschaftswissenschaften (2710)
- Extern (2661)
- Gesellschaftswissenschaften (2378)
- Biowissenschaften (2196)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1775)
- Center for Financial Studies (CFS) (1632)
Der vorliegende Aufsatz befasst sich mit temporalen Uneindeutigkeiten ökonomischer Modellierungen, die einem Ansatz zugerechnet werden, der in der Wissenschaftsgeschichte der Ökonomik als 'Neoklassik' thematisiert wird und seit den 1870er Jahren vorgebracht wurde. Die Neoklassik hat sich als enorm einflussreich in der Wirtschaftswissenschaft erwiesen; sie liegt beispielsweise der seit der zweiten Hälfte des 20. Jahrhunderts zunehmende Eigenständigkeit erlangenden Finanztheorie ('Finance') zugrunde und informierte auch die in den 1970er Jahren erstarkende Bewegung, makroökonomische Modellierungen auf Tauschvorgänge zurückzuführen, die sich auf der Mikroebene, d. h. zwischen einzelnen ökonomischen Akteuren (Arbeitern, Firmen, Haushalten etc.) abspielen.
Zu den nachhaltigsten Prägungen des architektonischen Entwerfens gehört das vereinfachte Idealszenario, wonach der Prozess der Theorie- und Formbildung eine Kette von Modellierungsstufen sei, die vom Großen zum Kleinen, vom städtebaulichen Entwurf zur baukonstruktiven Detailplanung führen. Nach diesem Szenario steht am Anfang jeder Modellierungsphase eine architektonische Hypothese mit ihrem je spezifischen Gegenstandsversprechen. Als letzte Modellierungsstufe am Ende der Kette liegt das konkrete Bauwerk im Eins-zu-eins-Maßstab vor. Jede Stufe wird in maßstabsgetreuen Zeichnungen und Modellen entwickelt, die ihre Qualität aus der Entsprechung zum späteren Bauwerk gewinnen. In jeder Phase hat der Architekt die Möglichkeit, das bisher Modellierte durch Anschauung zu überprüfen, weiter auszuarbeiten oder zu verwerfen. Auf diese Weise wird der Entwurf von einer Stufe auf die nächste überführt. Das computerbasierte Modellieren scheint diese Idealkette entwurflicher Operationen zu unterbrechen. Unter Zuhilfenahme von 3D-Modellierungssoftware entwickelt der Architekt seinen Entwurf weniger in aufeinander aufbauenden Stufen als vielmehr in einer einzigen Stufe, die theoretisch alle anderen Stufen beinhaltet. Die erdachte Architektur wird nicht in abstrahierenden, voneinander getrennten Zeichnungen dargestellt, sondern in einem einzigen, zweidimensional wiedergegebenen 3D-Modell visualisiert. Digitale Prozessketten heben die tradierte Trennung zwischen intellektuellem Entwurfsakt und materieller Ausführung auf. Während im Analogen die architektonischen Entwurfszeichnungen zunächst in Ausführungspläne und anschließend von den am Bau beteiligten Gewerken in Werkstattpläne transformiert werden, sind im Digitalen Entwurf und Ausführung eng miteinander verschränkt. Die Produktionstechnologien greifen unmittelbar in die Entwurfsverfahren ein: Bei dem 'file to factory' genannten Modellierungsverfahren werden geometrische und technologische Informationen in einem Datenmodell zusammengefasst, das unter Zuhilfenahme computergesteuerter Fertigungsmaschinen (u. a. 3D-Drucker) in ein physisches Modell oder ein Bauteil umgesetzt wird.
Im Folgenden wird Herders wechselseitiger Entwurf von Mensch und Natur in ein Verhältnis zur Klimakonzeption Kants gesetzt, wie dieser sie im Kontext seiner naturphilosophischen Überlegungen entwickelt. Dabei wird es nicht darum gehen, eine der beiden Positionen gegen die andere auszuspielen, sondern darum, die Denk- und Darstellbarkeit klimatischer Natur – noch vor ihrer Repräsentation in Diagrammen oder dem Versuch der Klimaprognose - auf den Grundlagen von zwei verschiedenen theoretischen Positionen zu rekonstruieren. Ein Hauptaugenmerk gilt der Frage, ob und inwiefern bei der Darstellung klimatischer Natur für beide Autoren Modelle eine Rolle spielen, und zwar in zwei Hinsichten: Erstens gilt die Aufmerksamkeit der Verwendung von Modellen, die rückwirkend als solche identifiziert werden können, von den Autoren aber nicht unbedingt als "Modell" bezeichnet wurden; zweitens der Verbindung zwischen den Darstellungsweisen klimatischer Natur in den Texten und ihrer Reflexion auf den Einsatz von Modellen, die sowohl bei Kant als auch bei Herder in der expliziten Beschäftigung mit der Funktion der Analogie zu finden ist.
Simulationsmodelle
(2016)
Mit der Entwicklung elektronischer Computer in den 1940er Jahren und höheren Programmiersprachen in den 1950er Jahren hält ein neuer Modelltyp Einzug in die Wissenschaften: Simulationsmodelle. Bekannteste Vertreter sind wohl Klima- und Wettermodelle, die mittlerweile Teil der Alltagskultur geworden sind. Kaum eine Natur- oder Technikwissenschaft kommt heute noch ohne Simulationsmodelle aus und neben der traditionellen Einteilung in Theorie und Empirie fügt sich die Simulation als 'dritte Methode' im Rahmen von 'Computational Departments' in die Wissenschaftslandschaft ein. Dabei ist der Begriff des Simulierens durchaus nicht eindeutig definiert. In einem weiten Sinne kann er im wissenschaftlichen Kontext für jegliche Form des Nachahmens und Imitierens verwendet werden: ein Crashtest im Labor simuliert einen Autounfall, ein Schiffsmodell im Strömungskanal bildet maßstabsgerecht ein Containerschiff nach und ein Ball-Stick-Model imitiert ein Molekül. Dennoch hat sich im wissenschaftlichen Kontext der Begriff des Simulierens auf die Computersimulation zentriert und in unterschiedliche Subkategorien ausdifferenziert:
– deterministische Simulationen basierend auf Differentialgleichungen
– stochastische Simulationen basierend auf stochastischen Differentialgleichungen oder
Zufallsläufeerzeugungsmethoden wie der Monte-Carlo-Simulation
– ereignisbasierte Simulationen, in denen bestimmte Ereignisse andere Ereignisse auslösen
– sogenannte 'Soft Computing'-Methoden wie Agentenbasierte Simulationen, Genetische
Programmierung, Evolutionäre Algorithmen oder Neuronale Netze.
Im vorliegenden Zusammenhang soll der Begriff des Simulierens jedoch einzig auf deterministische Simulationen bezogen werden. Diese Simulationsart ist nicht nur die weitest verbreitete in den Natur- oder Technikwissenschaften, sie ist auch die älteste und damit klassische Form der Simulation.
Das Ziel des Beitrags besteht darin, jene Formelideale in der Mathematik und in der Ökonomik zu identifizieren, um anschließend Überlegungen darüber anzustellen, auf welche Art und Weise diese Ideale den logischen Spielraum der Problemlösung erweitern oder einengen. Ganz entscheidend hierfür ist das Verhältnis von Internalitäten und Externalitäten; also ob bzw. welche Umweltbezüge in der Formelsprache eingeschlossen oder ausgeschlossen werden. Die Analyse erfolgt aus wissenssoziologischer Perspektive, die die mathematische, mit Blick auf die Ökonomik vorsichtiger formuliert: die pseudo-mathematische Formelsprache als eine spezifische Semantik versteht. Hierbei handelt es sich nicht nur um eine Semantik, die sich der durch die gesellschaftliche Differenzierung ausgelösten Komplexitätssteigerung anpasst. Die Evolution der mathematischen und wirtschaftswissenschaftlichen Semantik befolgt zudem, so meine These, paradigmatische Ideale, die in den spezifischen Disziplinen angelegt sind. Dies spiegelt sich in der Art und Weise wider, wie in den jeweiligen Disziplinen auf mathematisch-kalkulatorischer Modellebene einerseits eine Geschlossenheit und Binnenreferenzialität des Formelhorizonts und andererseits eine Projektionsfläche für die Entdeckung von Zusammenhängen und das Auffinden formaler Muster generiert wird. Die Ausgangsannahme im Hinblick auf die Ökonomik ist, dass auch die Operationsweise ökonomischer Modelle, insofern sie auf mathematischer Grundlage gebildet werden, auf einer Binnenreferenzialität beruht. Die Stringenz solcher Modellierungen wird gerade deswegen zum vorherrschenden Gütekriterium, weil sie nicht nur jegliche Externalitäten im Sinne einer Irritation des formalen Modells ausschließt, sondern zugleich Beobachtungseffekte durch Sinnüberschüsse ermöglicht, die durch eine Entdeckung formaler Muster aktualisiert werden. Im ersten Schritt wird hierzu das Formelideal der reinen Mathematik auf der Grundlage wissenssoziologischer Überlegungen und mathematischer Selbstreflexionen herausgearbeitet. Daran anschließend wird das Formelideal pseudo-mathematischer Modelle in der Ökonomik untersucht. Die Basis bilden vor allem William Stanley Jevons' und Alfred Marshalls wegweisende Überlegungen zur Mathematisierung der Ökonomik. Die Beobachtungen werden abschließend auf den Aspekt des Erweiterns oder Einengens des logischen Spielraums zur Problemlösung in der Mathematik und der Ökonomik hin zugespitzt.
Die naturwissenschaftlichen Diskurse des 19. Jahrhunderts sprachen neben den 'Bildern' von einer ganzen Reihe weiterer Dinge, welche Wissensgegenstände repräsentieren konnten, auch ohne Modelle im damaligen Sinn zu sein. Weite Verbreitung fanden im 19. Jahrhundert in dieser Funktion insbesondere die Begriffe der 'Analogien', 'Interpretationen' und der 'Systeme' von wirklichen oder gedachten Dingen. Die Beispiele, die mit solchen Begriffen verbunden waren, sind häufig für die Wissenschaftsentwicklung von substanzieller Bedeutung gewesen. Sie stehen aber, wie ich im Folgenden andeuten möchte, für ganz unterschiedliche Formen und Funktionen der abstrakten Repräsentation. Den Begriff 'abstrakte Repräsentation' verwende ich hierbei etwas vage und naiv als schlichten Oberbegriff für verschiedene Weisen, einen Komplex von wissenschaftlich interessierenden Dingen oder Sachverhalten durch etwas anderes darzustellen und für die wissenschaftliche Praxis zu thematisieren, ohne dabei auf materielle, anfassbare Dinge zurückzugreifen, wie dies die 'Modelle' in der Sprache des 19. Jahrhunderts taten. Zugleich soll dadurch ('pace' Wittgenstein und unangesehen der inflationären Verwendung des Modellbegriffs seit Mitte des 20. Jahrhunderts) vermieden werden, vorschnell von einem 'Denken in Modellen' zu reden. Wir werden noch sehen, dass die in Rede stehenden, abstrakten Repräsentationen bisweilen sehr konkrete epistemische Funktionen hatten. Das Wort 'abstrakt' sollte hier also nicht überbewertet werden. Insbesondere möchte ich im Folgenden jeweils die spezifische 'epistemische Situation' charakterisieren, d.h. die Besonderheiten der Wissensumstände, in welchen der Rückgriff auf eine Form der abstrakten Repräsentation geschah und den Beteiligten vielversprechend erschien.
Es ist ein Gegenstand andauernder Diskussionen, wie der Strukturalismus, der im Werk von Claude Lévi-Strauss vielleicht seine aufregendste und theoretisch ambitionierteste Ausprägung gefunden hat, sich zum Modell verhält. Während Marcel Hénaff betont hat, dass der Strukturalismus von Lévi-Strauss ohne eine Klärung des Modell-Begriffs kaum verstanden werden könne, hat Robert Matthias Erdbeer am Beispiel des französischen Ethnologen zuletzt das Fehlen einer strukturalistischen Modelltheorie beklagt: "Man kann hier einen echten Theorieverlust, ja Theorieverzicht beklagen, wenn man konstatiert, dass am Beginn der strukturalen Theoriebildung nicht die Strukturen stehen, sondern das Modell. Modelle, so die überraschende Erkenntnis, sind das epistemische Arkanum, das verdeckte Andere des strukturalen Theoriedesigns." Aus der Perspektive der Modelltheorie literarischer Texte, die Erdbeer in hoch anregender Weise ausgearbeitet hat, ist diese Diagnose nachvollziehbar. Jedoch sollte sie nicht in den Hintergrund geraten lassen, dass der Modell-Begriff von Lévi-Strauss, so ungenügend er sich zur Lösung aktueller theoretischer Fragestellungen erweisen mag, aus historischer Sicht überaus aufschlussreich ist, ja dass er gerade auch in seinen Unschärfen, Schwierigkeiten und Dunkelheiten Auskunft darüber gibt, wie sich die strukturale Analyse im wissenschaftlichen Feld ihrer Zeit positioniert und an welche wissenschaftlichen Traditionen sie anschließt. In den folgenden Ausführungen wird der Modell-Begriff bei Lévi-Strauss deshalb noch einmal in den Blick genommen. Im Anschluss an Hénaff soll dabei vor allem an zwei Diskussionsfeldern gezeigt werden, dass die Auseinandersetzung mit Modellen insofern ins Herz der strukturalen Analyse führt, als Lévi-Strauss Modelle sowohl von der Struktur als auch von den konkreten Ereignissen her denkt und sie immer wieder als Vermittler von Struktur und Ereignis positioniert. Hierfür wird zunächst rekonstruiert, wie Lévi-Strauss das Modell im Zusammenhang von Reflexionen zur Ethnologie und deren Rolle im Gefüge der Wissenschaften behandelt - in den Mittelpunkt werden dabei die Begriffe des 'mechanischen Modells' und des 'statistischen Modells' rücken. Danach wird betrachtet, wie er das Modell in das 'Das wilde Denken' ins Zentrum seiner ästhetischen Theorie stellt und die Kunst hier als 'verkleinertes Modell' konzipiert, bevor abschließend zumindest umrissen werden soll, in welche wissenschaftliche Tradition sich Lévi-Strauss mit seinen Erörterungen zu Modellen stellt.
In einem 2015 veröffentlichten Ranking des populären Wissenschaftsportals 'postnauka' wurde in der Rubrik "die fünf wichtigsten Bücher zur intellectual history" Reinhart Kosellecks Monographie 'Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten' vorgestellt. Der Autor Ivan Boldyrev bezeichnete den Band als eines der Grundlagenwerke der deutschen Begriffsgeschichte und hob auf die Leistungsfähigkeit der historischen Semantik ab. Dass ein deutschsprachiges Buch auf die Liste kam, stellt eine große Ausnahme dar. Deutsche Titel erscheinen in diesen Rankings ansonsten nur, wenn sie in russischer Übersetzung vorliegen. Eine intensive Rezeption der Begriffsgeschichte Reinhart Kosellecks und seiner Arbeiten zu Zeitstrukturen setzte bereits vor über zehn Jahren ein. 2004 beendete der Historiker Aleksandr Dmitriev einen Überblicksartikel zur 'Intellectual History' mit der Ankündigung, dass der Moskauer Verlag 'Novoe literaturnoe obozrenie' (Neue literarische Umschau) in seinen Zeitschriften und Büchern das Thema zunächst am Beispiel der Begriffsgeschichte Reinhart Kosellecks verfolgen werde. Bereits zwei Jahre später, 2006, konstatierte Nikolaj Koposov, der Gründungsdekan des 'Smolny College of Liberal Arts and Sciences' in Sankt Petersburg, über Begriffsgeschichte werde viel diskutiert, der Ansatz selbst aber von russischen Kollegen bzw. an russischem Material nur wenig praktiziert. Mittlerweile hat sich einiges in diesem Forschungsfeld getan. Es liegen erste Übersetzungen der theoretischen Arbeiten Kosellecks sowie neun Artikel aus den 'Geschichtlichen Grundbegriffen' in russischer Sprache vor. Auch die Zahl von empirischen und theoretischen Arbeiten zur russischen Begriffsgeschichte wächst. Die Rezeption der deutschen Begriffsgeschichte und der Arbeiten Reinhart Kosellecks erfolgt - so die einhellige Meinung von russischen Autoren - im Zuge der wissenschaftlichen Neuorientierung in postsowjetischer Zeit und der Suche nach Parametern für die Forschung. Damit verbunden indet eine Internationalisierung und Öffnung der Geisteswissenschaften nach außen statt, d.h. es erfolgt eine intensivere Rezeption internationaler Historiographien und eine verstärkte Kooperation mit ausländischen Kollegen. Spezifisch für dieses Forschungsfeld ist die gleichzeitige bzw. gemeinsame Rezeption der Begriffsgeschichte bei Historikern, Philosophen, Linguisten, Soziologen und Politologen. Im Folgenden sollen die wichtigsten Institutionen, Veranstaltungen, Kooperationen und Publikationen vorgestellt und die inhaltlichen Schwerpunkte und Spezifika der russischen Rezeption Kosellecksche Arbeiten aufgezeigt werden.