Refine
Year of publication
- 2004 (1729) (remove)
Document Type
- Article (665)
- Doctoral Thesis (263)
- Part of a Book (153)
- Part of Periodical (143)
- Working Paper (114)
- Review (111)
- Book (60)
- Preprint (55)
- Conference Proceeding (48)
- Report (47)
Language
- German (1207)
- English (475)
- French (17)
- Portuguese (9)
- Multiple languages (6)
- Spanish (6)
- mis (4)
- Italian (2)
- Turkish (2)
Keywords
- Johann Wolfgang von Goethe (38)
- Deutsch (34)
- Frankfurt <Main> / Universität (29)
- Deutschland (27)
- Syntax (27)
- Rezension (24)
- Generative Transformationsgrammatik (23)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
- Wortstellung (19)
Institute
- Medizin (141)
- Physik (106)
- Extern (91)
- Biochemie und Chemie (69)
- Wirtschaftswissenschaften (57)
- Rechtswissenschaft (51)
- Biowissenschaften (36)
- Universitätsbibliothek (31)
- Center for Financial Studies (CFS) (30)
- Erziehungswissenschaften (30)
Die perkutane interstitielle Thermoablation von malignen Lebertumoren stellt ein neues Therapiekonzept zur palliativen und auch potenziell kurativen Tumordestruktion dar. Dabei müssen die Therapiekonzepte differenziert werden nach der zugrunde liegenden Histologie: Beim hepatozellulären Karzinom kann ein lokal ablatives Verfahren alternativ oder in Kombination mit der lokalen Alkoholinstillation (PEI) oder der transarteriellen Chemoembolisation (TACE) eingesetzt werden. Nach neuesten Studien erlauben lokale Verfahren wie die Radiofrequenzablation und die Lasertherapie (LITT) eine verlässliche lokale Tumorkontrolle beim HCC. Für eine erhebliche Patientenanzahl gestaltet sich bei kurativ reseziertem Primärtumor eine hepatische Metastasierung zum limitierenden Faktor. Diese hohe Inzidenz an hepatischen Filiae weist hauptsächlich die Gruppe der kolorektalen Primärtumoren aufgrund des speziellen Metastasierungsverhaltens auf. Bisher profitieren nur eine sehr geringe Anzahl der Betroffenen von der Möglichkeit der operativen Resektion solitärer Läsionen. Weit über die Hälfte der Patienten erleiden jedoch wieder intrahepatische Tumorrezidive. Die systemische oder regionale Chemotherapie konnte bisher im Vergleich zu resezierten Patienten nur geringe Verbesserungen der Überlebenszeiten bei oftmals erheblichen Einschränkungen der Lebensqualität erzielen. Für Lebermetastasen kann heute der Einsatz der MR-gesteuerten LITT bei lokal beschränktem Leberbefall ohne extrahepatische Manifestationen klinisch begründet werden. Mit der laserinduzierten Thermotherapie (LITT), als ein minimal invasives Verfahren, ist es möglich durch einen perkutanen Zugangsweg gezielt Tumoren in soliden parenchymatösen Organen zu zerstören. Dabei kann das umgebende Gewebe maximal geschont und der Eingriff in lokaler Anästhesie ambulant durchgeführt werden. Voraussetzung für den optimalen Erfolg eines regionalen Verfahrens ist die genaue topografische Darstellung der erzielten Koagulationsnekrose während und nach der Intervention. Die Magnetresonanztomografie erweist sich dabei als unentbehrliches Instrument zur Überwachung und Steuerung der perkutanen LITT. Durch temperatursensitive T1-gewichtete Sequenzen und mittels optimierter Sequenzprotokolle zur Nachkontrolle der laserinduzierten Nekrosen und bei den dreimonatigen Kontroll-Untersuchungen hat sich gerade bei der Beurteilung von sehr kleinen Tumormanifestationen die Magnetresonanztomografie als das optimale Untersuchungsverfahren bewährt. An Nebenwirkungen traten lediglich nicht therapiebedürftige Pleuraergüsse und subkapsuläre Hämatome auf, was den Patienten schonenden, minimal invasiven Charakter des Verfahrens unterstreicht. Durch die Weiterentwicklung des gespülten Applikators und die Anwendung der Multiapplikationstechnik kann man nun auch größere Koagulationsnekrosen erreichen, und somit auch bei der Behandlung von größeren Metastasen einen ausreichenden Sicherheitssaum erreichen. Mit der MR-gesteuerten LITT wurde ein minimal invasives Therapieverfahren zur Erlangung einer lokalen Tumorkontrolle entwickelt, das in einer palliativen Situation, aber auch in vielen Fällen in einer kurativen Situation eine Therapieoption für Patienten mit Lebermetastasen verschiedenster Primärtumoren und Läsionen des hepatozellulären Karzinoms bietet.
FGF-2, a potent multifunctional and neurotrophic growth factor, is widely expressed in the brain and upregulated in cerebral ischemia. Previous studies have shown that intraventricularly or systemically administered FGF-2 reduces the size of cerebral infarcts. Whether endogenous FGF-2 is beneficial for the outcome of cerebral ischemia has not been investigated. We have used mice with a null mutation of the fgf2 gene to explore the relevance of endogenous FGF-2 in brain ischemia. Focal cerebral ischemia was produced by occlusion of the middle cerebral artery (MCAO). We found a 75% increase in infarct volume in fgf2 knock-out mice versus wild type littermates (P < 0.05). This difference in the extent of ischemic damage was observed after 24 h, and correlated with decreased viability in fgf2 mutant mice following MCA occlusion. Increased infarct volume in fgf2 null mice was associated with a loss of induction in hippocampal BDNF and trkB mRNA expression. These findings indicate that signaling through trkB may contribute to ameliorating brain damage following ischemia and that bdnf and trkB may be target genes of FGF-2. Together, our data provide the first evidence that endogenous FGF-2 is important in coping with ischemic brain damage suggesting fgf2 as one crucial target gene for new therapeutic strategies in brain ischemia.
Man muss kein Marxist sein, um anzuerkennen, dass Unternehmer in kapitalistischen Industriegesellschaften ein gesellschaftlich außerordentlich mächtiges Interesse verkörpern. Angesichts der gegenwärtig zu beobachtenden politischen Kräfteverhältnisse erscheint diese Machtposition so gefestigt wie lange nicht mehr. Die vorgeblichen Zwänge der Globalisierung und ein politisch hegemonialer Marktradikalismus haben die Durchsetzungsfähigkeit politischer Unternehmerstrategien weiter gestärkt. Im Rahmen der voranschreitenden Ökonomisierung des Politischen werden die Verwertungsbedingungen zum zentralen Maßstab politischer „Reformprojekte“, wie dies in der gegenwärtigen Arbeitsmarkt- und Sozialpolitik der Bundesregierung deutlich zu erkennen ist. Da es sich dabei jedoch nicht um einen automatischen Prozess handelt, sondern um politische Auseinandersetzungen, deren Ausgang prinzipiell ungewiss ist, bleibt erklärungsbedürftig, wie sich das Verhältnis von Unternehmern und Politik im Einzelnen gestaltet. Die grundlegende Frage lautet, wie sich in einem parlamentarisch-demokratischen System, in dem formal alle gesellschaftlichen Gruppen den gleichen Zugang zu politischen Entscheidungsprozessen besitzen, ökonomische in politische Macht „übersetzt“. Im Folgenden sollen einige Facetten dieser Frage diskutiert werden. Dabei wird erstens die Quantität der „sozialen Gruppe“ der Unternehmer in der Bundesrepublik Deutschland umrissen, zweitens wird ihre politische Durchsetzungsfähigkeit im System kollektiven Interessenhandelns erörtert und drittens wird, anhand einiger klassentheoretischer Überlegungen, das Verhältnis von Homogenität und Fragmentierung unternehmerischer Interessen thematisiert.
Taxation and tax policy reform appears on the political agenda in most advanced welfare states in Europe and North America. Of course studies of taxation and tax policy are nothing new and have existed ever since people have paid taxes. The current work is situated in the context of the future of the welfare state and the reinforced international economic and political integration referred to as "globalization." The purpose of this paper is to analyze how globalization is affecting tax policy in advanced welfare states. In comparing the evolution of tax policy in Canada with those in the United States, Germany and Sweden from 1960 to 1995, I will try to review the conventional antiglobalization thesis, i.e., that globalization leads to a "race to the bottom" in revenue and expenditures policies, or as others have called it, a "beggar the neighbour policy" (Tanzi and Bovenberg 1990, 187). ... Conclusion: The empirical data and theoretical models clearly show that globalization is one relatively minor factor among many that explain tax policy reforms. And even that limited influence is mediated by domestic political systems, institutions and constellations of actors. As the data has shown, the conventional globalization thesis of a race to the bottom is not borne out. Tax rates and tax revenues are still increasing, despite the ongoing trend toward international trade integration. Countervailing pressures like the high cost of welfare programs, different parties in government, strong labour unions, and institutional veto players counteract the pressure of globalization on tax policy. As for the future of taxation in Canada, it is more likely to be one of gradual evolution than radical change. Although the data don’t show any downward pressure on tax rates and tax revenues comparatively speaking, there are at least four key factors in Canada that are likely to put pressure on future tax rates, although regional political dynamics and the workings of fiscal federalism suggest that tax reductions will be a higher priority in some provinces than others (Hale 2002). First, neoliberalism will continue to shape fiscal and tax policy, including the role of the tax system in delivering social policies and programs in most parts of Canada. Second, governments that seek to define their own economic and social priorities rather than simply react to events beyond their borders will have to exercise centralized control over budgetary policies and spending levels if they hope to foster the economic growth needed to finance social services in the context of Canada’s changing demographics. Third, the ability of governments to combine the promotion of economic growth and higher living standards will be closely linked to their ability to develop a workable division of responsibilities among federal and provincial governments and with other national governments. Finally, the diffusion of new technologies will continue to transform national and regional economies while giving individuals greater opportunity to avoid government and tax regulations that run contrary to their perceived interests and values. This discussion of determinants that shape tax policy reform has shown that successful management of fiscal and tax policy requires a capacity to set priorities; adapt to changing circumstances; and build a consensus that enables competing economic, social, regional and ideological interests to identify their own well-being in the broader political and economic environment. Tax policy is shaped by many political, economic and social determinants. As Geoffrey Hale correctly concludes, "it should not be surprising if the tax system stubbornly refuses to confirm either economic theories or political ideologies, but reflects past decisions and the policy tradeoffs of the political process" (2002, 71). The notion of tax policy being driven by globalization and forces associated with globalization (both positive and negative) is simply not borne by the facts.
In der vorliegenden Studie werden die sozialpolitischen Reformen in den USA und Kanada während der 1990er Jahren in einer vergleichenden Perspektive analysiert. Dabei wird insbesondere die Rolle steuerpolitischer Instrumentarien in den Reformen thematisiert und der Frage nachgegangen, ob sich hier ein neuer Typ von Wohlfahrtsstaat herausbildet. Im ersten Teil des Papiers wird das in der vergleichenden Wohlfahrtsstaatsforschung etablierte Modell des liberalen Wohlfahrtsstaats skizziert, um vor diesem Hintergrund die Reformen in den USA und Kanada zu untersuchen und zu vergleichen. Anschließend wird in einer breiteren vergleichenden Perspektive die out-put-Leistung der beiden Wohlfahrtsstaaten analysiert. Al normative Kriterien hierbei gilt in erster Linie die Umverteilungsfunktion sozialpolitischer Instrumentarien, hier in erster Linie verstanden als Einkommensumverteilung.
Am Beginn des 21. Jahrhunderts wird der Zustand der US-Demokratie kontrovers diskutiert. Während manche Beobachter eine zu hohe Responsivität des politischen Systems gegenüber den Ansprüchen seiner Bürger entdeckt haben wollen und deshalb von demosclerosis und einer Hyperdemokratie sprechen, in welcher der Volkswille in einen unantastbaren, göttlichen Rang erhoben worden sei, kommen andere zu dem Schluss, dass die Gründerväter im Hinblick auf ihre handlungsanleitende Furcht vor einer »Tyrannei der Mehrheit« ganze Arbeit geleistet und ein nahezu unüberwindbares System von Vetopositionen geschaffen hätten, das Partikularinteressen strukturell bevorzuge und deshalb nur in Ausnahmesituationen die Mehrheitspräferenzen der Bürger in Politik umsetze. Kurzum: Die Furcht der Federalists vor einer »Mehrheitstyrannei« habe einer »Minderheitstyrannei« Tür und Tor geöffnet. Der Artikel versucht die Vereinigten Staaten in diesem Spannungsbogen zu verorten. Ziel ist es, die Qualität der amerikanischen Demokratie am Beginn des 21. Jahrhunderts zu problematisieren. Dabei werden auch die Entwicklungen nach dem 11. September berücksichtigt.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We analyzed two possible signing approaches (server based and client based signatures) and conclude that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. We also present some of the constraints that still have to be addressed before qualified mobile signatures are possible.
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. This infrastructure could be used to enable secure mobile brokerage services that can ommit the necessity of TAN lists and therefore allow a better integration of information and transaction services.
In der vorliegenden klinischen Studie wurde der Zusammenhang zwischen Hämatokrit und Mikrozirkulation bei Diabetikern mit und ohne Mikroangiopathie untersucht und in Relation gesetzt zu anderen Risikofaktoren, für die bereits eine Beeinflussung der Mikrozirkulation bei Diabetikern nachgewiesen wurde. Die Untersuchung erfolgte mittels Laser Doppler Fluxmetrie, Laser Doppler Scan und Laser Doppler Anemometrie. Als weiteres Ziel sollten diese erprobten Methoden bezüglich der Aussagekraft für die Fragestellung unserer Studie eingeordnet werden. Es zeigte sich, dass der Hämatokrit signifikant negativ mit der Ruhedurchblutung (für Mean DC: p<0,01, β = -0,411) der Hand und des Fußes (für Mean Flux: p<0,001, β=-0,531; für Mean DC: p<0,05, β= -0,359) korreliert. Dieser Einfluss lässt sich mit dem Laser Doppler Scan am Besten nachweisen. Eine signifikant positive Korrelation (p<0,05, β= 0,284) des Hämatokrits mit der Dauer der Hyperämie gemessen an der Hand besteht in der Laser Doppler Fluxmetrie, jedoch nicht in der Anemometrie. Die These, dass ein höherer Hämatokrit zu einer schlechteren Mikrozirku-lation beiträgt, wird durch eine höchst signifikante negative Korrelation der Zeit bis zum Erreichen der Maximalgeschwindigkeit mit dem Hämatokrit (p<0,001, β= -0,497) in Frage gestellt. Ob dieses Ergebnis tatsächlich neue Erkenntnisse bringt oder durch Begleitumstände beeinflusst wurde, sollte in weiteren Untersuchungen geklärt werden. Auch im Vergleich mit anderen Risikofaktoren findet sich der starke Einfluss des Hämatokrit vor allem auf die Ruhedurchblutung. Für die Dauer der Hyperämie in der Single Point Messung zeigt sich ebenfalls ein großer Einfluss von Laktatdehydrogenase (LDH) und Body Mass Index (BMI) (LDH: β= -0,311, BMI: β= -0,310, p<0,05). Unsere Ergebnisse stärken die Vermutung, dass multifaktorielle Ursachen für Änderungen der Mikrozirkulation verantwortlich sind. Der Hämatokrit spielt hierbei eine wichtige Rolle, mit der man sich weiterhin befassen und in größer angelegten Studien unter Ausschluss von Beeinflussung durch andere Variablen noch genauer untersuchen sollte. Bezüglich der beiden Messverfahren Anemometrie und Laser Doppler Fluxmetrie bleibt festzuhalten, dass es sich um ergänzende Methoden handelt. Der Laser Doppler Image Scan ist als Standardmethode für die Erfassung der Ruhedurchblutung anzusehen, während die Fluxmetrie und die Anemometrie beide verlässlich mit Provokationstests anzuwenden sind. Sie messen in verschiedenen Ebenen des Kapillarsystems und produzieren dadurch unterschiedliche Ergebnisse. Es konnte in der vorliegenden Studie nachgewiesen werden, dass ein deutlicher Einfluss des Hämatokrits auf die Mikrozirkulation besteht. Um aus unseren Ergebnissen klinische Konsequenzen für die Behandlung von Diabetikern zu ziehen, muss man sich vor allem der Frage des Zusammenhanges auf Höhe des nutritiven Kapillarsystems ausführlicher widmen und die Ursache der Veränderungen der Time to Peak in weiteren Studien abklären.
Chemically modified bases are frequently used to stabilize nucleic acids, to study the driving forces for nucleic acid structure formation and to tune DNA and RNA hybridization conditions. In particular, fluorobenzene and fluorobenzimidazole base analogues can act as universal bases able to pair with any natural base and to stabilize RNA duplex formation. Although these base analogues are compatible with an A-form RNA geometry, little is known about the influence on the fine structure and conformational dynamics of RNA. In the present study, nano-second molecular dynamics (MD) simulations have been performed to characterize the dynamics of RNA duplexes containing a central 1'-deoxy-1'-(2,4-difluorophenyl)-ß-D-ribofuranose base pair or opposite to an adenine base. For comparison, RNA with a central uridine:adenine pair and a 1'-deoxy-1'-(phenyl)-ß-D-ribofuranose opposite to an adenine was also investigated. The MD simulations indicate a stable overall A-form geometry for the RNAs with base analogues. However, the presence of the base analogues caused a locally enhanced mobility of the central bases inducing mainly base pair shear and opening motions. No stable ‘base-paired’ geometry was found for the base analogue pair or the base analogue:adenine pairs, which explains in part the universal base character of these analogues. Instead, the conformational fluctuations of the base analogues lead to an enhanced accessibility of the bases in the major and minor grooves of the helix compared with a regular base pair.
Installment Optionen
(2004)
Die vorliegende Arbeit beschäftigt sich im Wesentlichen mit Installment Optionen und deren Bewertung und Hedgemöglichkeiten. Installment Optionen werden vor allem im internationalen Treasurymanagement eingesetzt und dienen der Absicherung von Wechselkursrisiken. Die Besonderheit besteht darin, daß ein Konzern die Optionsprämie über mehrere Zeitpunkte aufteilen kann, zu denen er jeweils entscheidet, ob die Absicherung überhaupt noch benötigt wird. Dies könnte unter Umständen nicht mehr der Fall sein, wenn das zugrunde liegende internationale Geschäft des Konzerns wider Erwarten nicht zustande gekommen ist. Der exakte Wert einer Installment Option im Black-Scholes Modell besteht aus einem Ausdruck von Mehrfachintegralen, wohingegen die Anwendung verschiedener Bewertungsmethoden auf diesen approximierte Werte liefert. Die Untersuchung des Verhaltens mehrerer bekannter Methoden und die Entwicklung einer neuen Bewertungsformel für Installment Option ist Inhalt dieser Arbeit. Weiterhin wird die kontinuierliche Version der Installment Option betrachtet und für diese ein neuer Hedge bewiesen.
Das Thema der vorliegenden Arbeit war die molekulargenetische Charakterisierung der Funktion der Glukosesensoren Snf3 und Rgt2 in der Hefe S. cerevisiae. Snf3 und Rgt2 gehören zur Familie der Hexosetransporter. Sie unterscheiden sich von ihnen jedoch in ihrer Funktion als Glukosesensoren wie auch durch ihre ungewöhnlich langen Cterminalen Domänen. Snf3 und Rgt2 sind integrale Membranproteine, die als Reaktion auf extrazelluläre Glukose Signale auslösen, die zur Expression bestimmter Hexosetransporter führt. Einige Komponenten, die an der Signaltranduktion beteiligt sind, wurden bereits identifiziert. Jedoch ist der genaue Mechanismus, der zur Expression der Hexostransporter führt, noch nicht vollständig aufgeklärt. Im ersten Teil dieser Arbeit wurden die Proteine Snf3, Rgt2, Mth1, Std1 und Rgt1 auf direkte Interaktionen untereinander getestet, um Einblicke in den molekularen Mechanismus der Signaltransduktion zu erhalten. Desweiteren sollte festgestellt werden, ob die Protein-Wechselwirkungen von der C-Quelle abhängig sind. Es konnte gezeigt werden, dass zwischen den Membranproteinen Rgt2 bzw. Snf3 und den löslichen Proteinen Mth1 bzw. Std1 Interaktionen in Abhängigkeit von Glukose stattfanden. Diese Ergebnisse unterstützen das von Moriya und Johnston aufgestellte, gegenwärtige Modell für eine glukoseinduzierte HXT Genexpression. Im zweiten Teil dieser Arbeit wurde geprüft, ob sich aus dem Glukosesensor Snf3 durch eine Aminosäuresubstitution ein bifunktionaler Sensor für Glukose und Galaktose erzeugen läßt. Dazu wurden die für den Galaktosetransport verantwortlichen Aminosäuren in den homologen Positionen von Snf3 ausgetauscht. Die Bestimmungen der Regulation des Snf3-kontrollierten HXT7 Promotors ergaben, dass das mutierte Snf3 Protein, wie das Wildtyp-Snf3 Protein, eine normale Glukosesensorfunktion ausübt aber keine Galaktosesensorfunktion vorzeigt.
Aus der Notwendigkeit heraus, "nachhaltig die Funktionen des Bodens zu sichern" (§1 BBodSchG), und damit auch Bodenschutz vorsorgend in Planungsprozesse zu integrieren, wurde ein neues Bodenschutzkonzept entwickelt. Es basiert auf einer differenzierten, aber gleichzeitig nachvollziehbaren Bodenbewertung. Das Problem bei der Bodenbewertung ist, dass etwas bewertet werden soll, für das - je nach Fragestellung - immer wieder neue Ziele definiert werden müssen. Deshalb liegt der Bodenbewertung ein Zielsystem zu Grunde, das Schutzziele klar festlegt und mit Hilfe dessen die Bodenbewertung nachvollziehbar wird. Für das Bodenschutzkonzept werden aus der Vielzahl möglicher Kriterien wichtige vorgestellt, aus denen die - bezogen auf dieses Zielsystem - wesentlichen ausgewählt werden können. Um aussagekräftige Daten für diese Kriterien zu erhalten stützt sich die Bodenbewertung auf bodenkundliche sowie landschaftsgenetisch-geomorphologische Zusammenhänge. Die eigentliche Bewertung erfolgt dann in drei Schritten: zuerst eine Einzelbewertung, dann zusammengefasst nach den Bodenfunktionen Lebensraumfunktion, Regelungsfunktion, Informationsfunktion, dem Eigenwert des Bodens (Schutzwürdigkeit) sowie der Empfindlichkeit und Gefährdung (Schutzbedürftigkeit). Im dritten Schritt werden diese Bewertungen dann zu einer gewichteten, verbal-argumentativen Gesamtbewertung der Schutzwürdigkeit und Schutzbedürftigkeit zusammengefasst. Mit Hilfe des Bewertungsverfahrens werden auch Zielkonflikte zwischen den unterschiedlichen Schutzgütern offengelegt. Schutzmaßnahmen ergeben sich dann stringent aus den vorher im Zielsystem gesetzten Prämissen, d.h., Ziele und Maßnahmen sind begründbar gewählt, stehen in einem ökologischen Gesamtzusammenhang und lassen sich sehr gut nachvollziehen. Das hier vorgestellte, neue Bodenschutzkonzept ist für verschiedene Planungsebenen geeignet. Es ist in unterschiedlichen Naturräumen anwendbar, kann verschiedene Schutzziele mit Hilfe des Zielsystems bestimmen und so z.B. die Naturraumvielfalt in einem Gebiet ebenso berücksichtigen wie die Meinungsvielfalt, was unter vorsorgendem Bodenschutz zu verstehen sei.
Oskar Fischingers malerisches Oeuvre wurzelt theoretisch, ästhetisch und formal tief in der Kunstentwicklung des Deutschlands der zwanziger Jahre. Sein Ausdrucksvokabular, das von geometrischen bis zu amorphen Formen reicht, seine wechselnden, gleichermaßen zentral und flächenübergreifenden Bildgefüge mit reduzierten Inhalten oder reicher Formenfülle, sein Wandeln zwischen Abstraktion und Gegenständlichkeit, verhindert die Ausprägung einer einheitlichen Handschrift und damit auch einer eindeutigen chronologischen Entwicklung. Obwohl ästhetisch und formal den konstruktiven Tendenzen des Bauhaus und dessen Vertreter Kandinsky nahestehend sowie der lyrischen Abstraktion und Klee, wurde Fisichinger auch von östlichen Religionen, dem Mystizismus, der Astrologie, der Astronomie und der Musik geprägt. Dies manifestiert sich bisweilen in Form verschlüsselter Bildinhalte. Sein philosophischer Hintergrund bestärkt ihn in der Verwendung von abstrakten Formen als Träger metaphysischer Botschaften und bewahrt seine Bilder gleichzeitig vor formalistischer Strenge und Dekorativität. Trotzdem scheinen bestimmte Charakteristika in seinem Werk vorhanden: die Neigung des Ingenieurs zu regelmäßigen Formen und komplexem Detailwerk, das musikalische Gefühl für rhythmische Sequenzen, ein filmisches Anliegen für Bewegung und Tiefe, ein mystisches Gefühl für die anderen Dimensionen jenseits des Sichtbaren und Wirklichen. Fischingers grenzüberschreitendes Streben nach einer Befreiung der Malerei aus ihrer tradierten Form, welches sich in Projekten wie Motion Painting No.1 oder Stereo-Film manifestierte, entsprang dem Verlangen nach einem Kunstwerk, das mehrere Kunstgattungen in sich vereinigt, ein Gedanke, der sich zwingend aus seiner Auseinandersetzung mit den künstlerischen Betrachtungsweisen und Entwicklungen am Ende des 19. und zu Beginn des 20. Jahrhunderts ergab sowie aus seiner Beschäftigung mit synästhetischen Prozessen und der Filmarbeit. Diese Zielsetzung Fischingers zusammen mit motivischen Verwandtschaften zwischen seinen Filmen und der Malerei, die sich z.B. in der gemeinsamen Verwendung geometrischer Motive oder anderer gestalterischer Elemente wie der Aneinanderreihung von Farbbahnen (Abb. 26 – 28) zeigt, führten noch bis Anfang der siebziger Jahre zu einer Ignoranz seiner Malerei als eigenständige künstlerische Ausdrucksform. Noch 1970 wurde in einer Fischinger-Retrospektive im Long Beach Museum of Art in Kalifornien der Versuch unternommen, seine Gemälde direkt einzelnen Sequenzen seiner Filme zuzuordnen. Die Kunstkritik reagierte entsprechend abweisend auf die damalige Ausstellung. Der Journalist William Wilson schreibt „....half the time they don´t work as paintings because Fischinger evidently conceived of them as films.“ Erst einige Jahre später begannen sich Tendenzen zu einer mehrere Sparten übergreifenden Kunst durchzusetzen. Binnenkünstlerische Grenzen werden aufgehoben und Ausdehnungen in die Bereiche Video, Umraum, Objekt, Licht und Kinetik fanden statt. In diesem Zusammenhang ist Fischinger nicht nur einer der Wegbereiter der Op Art und der Holographie. Sein 1950 entwickelter Lumigraph, ein Lightshowgerät für den Hausgebrauch könnte ebenfalls als eine Vorform der Neon- und Laserkunst betrachtet werden. Trotzdem haben die Vergleiche mit den Künstlern Kandinsky, Klee und Mondrian gezeigt, dass Fischingers Malerei theoretisch, ästhetisch und formal zutiefst in der modernen Kunstentwicklung im Deutschland der zwanziger und dreißiger Jahre wurzelt. Die Betonung des Gleichgewichts von Intuition und Methode (Kap. 6.4.), die Auseinandersetzung mit den geometrischen Grundformen des Kreises, Quadrates, des Dreiecks und ihren farblichen Korrelationen (Kap. 6.4.), die Verwendung von geometrischem oder gegenständlich symbolischem Ausdrucksvokabular zur Darstellung spiritueller Inhalte (Kap. 7.3.), die Auseinandersetzung mit den synästhetischen Zusammenhängen von Farbe und Musik (Kap 7.3.) und der Assymetrie als Grundlage für das formale Gleichgewicht der Bildkräfte (Kap. 7.7.), dies sind Themen, mit denen sich Fischinger zwischen 1936 und 1967 sowohl auf der Basis von kunsttheoretischen Schriften als auch in seiner Malerei intensiv auseinandergesetzt hat. Sein Festhalten an den formal und stilistisch in den dreißiger Jahren entwickelten Gestaltungsmitteln und seine Verinnerlichung von Kunsttheorien der zwanziger Jahre könnte man zusammen mit seinem Desinteresse am internationalen Kunstgeschehen und an der angelitanischen Kunstszene als Ausdruck mangelnder geistiger Flexibilität und Anpassungsfähigkeit und damit als Akkulturationsproblem auffassen. Es könnte jedoch auch als Ausdruck einer konsequenten Umsetzung seiner künstlerischen Prinzipien verstanden werden. Die Beschreibung der Innenwelten stellt sich in diesem Zusammenhang als unabhängig von den Geschehnissen der Außenwelt und modischen Kunsttendenzen dar. Sie bedient sich eines abstrakten Zeichenvokabulars, das als universelles sprachliches Mittel keinem zeitlichen Wandel unterliegt. Die abstrakte Sprache, so wie sie Fischinger, Klee oder Kandinsky verstanden, war darüber hinaus keine Sprache der Zugehörigkeit zu einer bestimmten Gruppe oder Anschauung. So erklärt sich auch der mangelnde amerikanische Einfluss auf das malerische Werk Fischingers. Gemeinsamkeiten zwischen ihm und der kalifornischen Kunstszene der vierziger und fünfziger Jahre zeigen sich nur in dem Interesse an seriellen Strukturen und an den Entwicklungen der Monochromen und Meditativen Malerei. Wenn auch der Maler Fischinger aufgrund seines frühen Weggangs in seiner Heimat ein Unbekannter geblieben ist, so findet sein Werk in den Vereinigten Staaten zunehmende Anerkennung. In jüngster Zeit sind seine Gemälde in zahlreichen Ausstellungen vertreten, darunter 1993 in der in Washington eröffneten Wanderausstellung "Thema und Improvisation: Kandinsky und die amerikanische Avantgarde". Diese Popularität verdankt er wesentlich der Rückbesinnung auf ein bisher vernachlässigtes Kapitel amerikanischer Kunstgeschichte - der kalifornischen Malerei der vierziger Jahre. Fischinger zählt heute neben Lorser Feitelson, Helen Lundeberg, Peter Krasnow, Knud Merrild und Hans Burkhardt zu einem der wichtigsten Vertreter der südkalifornischen Malerei. Diese zeichnet sich im Vergleich zur Kunstmetropole New York jedoch mehr durch eine reiche Vielfalt stilistischer Ausprägungen und durch die Wahrung künstlerischer Individualität aus als durch avantgardistische Bestrebungen und einheitliches Stilwollen. 1992 stellte der Kurator des Washington Museum of Art anläßlich der Ausstellung "Turning the Tide" fest: "Fischinger is just now beginning to receive the attention he deserves beyond film critics and historians, recognition that ironically may have been delayed by his identification with art cinema."
Entmachtete Gegenstände? : Zur Kommerzialisierung sakraler Masken bei den Piaroa in Venezuela
(2004)
Der Begriff Gruppendynamik ist überbestimmt. Er kann erstens die psychosozialen Prozesse meinen, die Gruppen die Erfüllung ihrer Aufgabe schwer machen. Zweitens bezeichnet Gruppendynamik eine vorwiegend sozialpsychologische Forschungsrichtung, die sich mit der Untersuchung von Gruppen und ihrer Eigengesetzlichkeit befaßt. Und drittens hat sich unter dem Namen Angewandte Gruppendynamik eine Interventionspraxis herausgebildet, deren Ziel die methodische Beeinflussung der gruppendynamischen Phänomene und Prozesse ist. Diese Interventionspraxis ist der Gegenstand dieser Arbeit. Wie und warum es zu einer Trennung von Gruppendynamik als akademischer Forschungsrichtung und Gruppendynamik als Interventionspraxis kam, obwohl sie sich mit denselben Phänomenen befassen, ist selbst Teil des zu Untersuchenden. Gruppendynamik als institutionalisierte Praxis besteht in Deutschland seit mehr als 30 Jahren. Das erste deutsche gruppendynamische Laboratorium fand im Geburtsjahr des Autors, 1963, statt. Dazwischen hat Gruppendynamik zahlreiche Metamorphosen durchgemacht. Von einer emanzipatorischen Methode der „Neufundierung von Autorität“ in den 70er Jahren wandelte sie sich zu einer Schlüsselqualifikation für Organisationsberater in der 80ern. Heute ist sie zwischen Therapie, Supervision und Beratung angesiedelt und nur schwer als eigenständige Methode erkennbar. Gruppendynamik ist zu einem „historischen Begriff“ geworden und für einen solchen gilt Max Webers Einsicht, daß man ihn nicht nach dem Schema: genus proximum, differentia specifica definieren kann, „sondern er muß aus seinen einzelnen der geschichtlichen Wirklichkeit zu entnehmenden Bestandteilen allmählich komponiert werden. Die endgültige begriffliche Fassung kann daher nicht am Anfang, sondern muß am Schluß der Untersuchung stehen.“ Diese Arbeit beginnt deshalb nicht mit einer Definition von Gruppe, Gruppendynamik und gruppendynamischer Praxis, sondern geht von einigen wenigen Zentralkonzepten aus, die bis heute zum normativen Kernbestand der angewandten Gruppendynamik gehören und versucht mit deren Hilfe, die Besonderheit gruppendynamischer Praxis freizulegen. Laboratorium, Trainingsgruppe, Hier und Jetzt-Prinzip sowie Minimalstrukturierung bilden zusammen den strukturellen Rahmen gruppendynamischer Praxis: den gruppendynamischen Raum. In ihm sind die Teilnehmer mit dem gruppendynamischen Strukturproblem konfrontiert: Zugehörigkeit, Macht und Intimität kollektiv zu gestalten und zu erforschen. Die Rekonstruktion von gruppendynamischem Raum und gruppendynamischem Strukturproblem ist Inhalt von Teil I dieser Arbeit. In Teil II wird danach gefragt, welche soziale und affektive Dynamik das gruppendynamische Strukturproblem induziert. Diese Dynamik wird in zweifacher Perspektive untersucht: im Blick auf das soziale Netzwerk Gruppe wird Gruppendynamik als Vergemeinschaftungsprozeß interpretiert, im Blick auf die Individuen als Übertragungsgeschehen. Der sozialisationstheoretische Rekurs auf die Dynamik der Primärgruppe Familie und der präadoleszenten Peer-group kann zeigen, daß das gruppendynamische Strukturproblem universelle und elementare sozialisatorische Konflikte hervorruft. Teil III greift die ungelösten Fragen von Teil I auf und stellt die spannungsvolle Geschichte der Gruppendynamik von Deutschland nach Amerika und zurück dar. Gruppendynamik, entstanden aus einem Junktim von Forschen und Verändern, hat auf ihrem Weg dieses Junktim aufgelöst und die beiden auseinander gebrochenen Hälften jeweils an die akademische Kleingruppenforschung und an die angewandte Gruppendynamik delegiert. Das hat der angewandten Gruppendynamik eine hohe Anschlußfähigkeit an die Bedürfnisse des Selbsterfahrungs- und Fortbildungsmarktes sowie der Organisationsberatung verschafft. Die Rückseite dieses Geschehens bildet eine in den entsprechenden Fachpublikationen regelmäßig beklagte Theoriestagnation. Die historischen Exkurse können bei der Frage weiterhelfen, wie sich die Besonderheit von Gruppendynamik im Dreieck von Forschen, Erziehen und Heilen strukturell bestimmen läßt. In dieser Arbeit wird der Versuch unternommen, gruppendynamische Praxis konsequent als Forschungspraxis zu deuten und von allen edukativen und therapeutischen Methoden abzugrenzen. Können die Teile I und II zeigen, daß das gruppendynamische Strukturproblem die Teilnehmer in einen übertragungsreichen Vergemeinschaftungsprozeß führt, können die Fallstudien in Teil IV zeigen, wie dies geschieht und wie Gruppen kollektiv unter Begleitung der Trainer diese Aufgabe gestalten. Material der Fallstudien sind Trainingsgruppen aus gruppendynamischen Fortbildungsveranstaltungen, die von den entsprechenden Dachverbänden der deutschen, schweizer und österreichischen Gruppendynamiker ausgeschrieben wurden. Diese Fallstudien können also relativ viel über die Prozesse in T-Gruppen sagen und wenig über das gruppendynamische Geschehen in Großgruppen. Doch da eine T-Gruppe, in der Regel bestehend aus einem Dutzend Teilnehmer und einem Trainerpaar, den normativen Kern der meisten gruppendynamischen Veranstaltungen bildet, läßt sich durch deren Analyse Wesentliches über gruppendynamische Praxis herausfinden, auch wenn die Intergruppen- und Großgruppendynamik ein wichtiger Bestandteil dabei ist. Mit der Methode der ojektiven Hermeneutik werden zwei Trainingsgruppen ausführlich analysiert. Die erste Gruppe geht über fünf Sitzungen, die zweite über zehn Sitzungen. Wird am Material dieser Gruppen der gruppendynamische Prozeß untersucht, so beleuchten die vier Fallvignetten jeweils einzelne Facetten gruppendynamischer Praxis. Die Ergebnisse dieser Fallstudien dienen dann im Teil V dazu, den gruppendynamischen Prozeß in seiner elementaren Dynamik und in seinem Lernpotential zu beleuchten. Die Teile I bis III rekonstruieren gruppendynamische Praxis idealtypisch, sie fragen also nicht danach, welche verschiedenen Formen und Interpretationen von Gruppendynamik sich historisch herausgebildet haben, sondern sie bilden einen Idealtypus. Nun ist die Empirie keine Kollektion von Idealtypen und zur Abbildung der Gruppendynamik in ihrer polypragmatischen Vielgestaltigkeit taugt eine idealtypische Rekonstruktion wenig. Der Zweck einer Idealtypenbildung besteht vielmehr darin, einen Begriff aus der Sache selbst zu entwickeln, an dem die Sache dann gemessen werden kann. Idealtypenbildung geht von der Einsicht aus, daß eine Theorie ihrem Gegenstand nur angemessen ist, wenn sie aus ihm entwickelt worden ist, deshalb gehen Theoriebildung und Fallrekonstruktion bei der Idealtypenbildung parallel einher. In der akribischen Rekonstruktion eines Einzelfalles in seiner Besonderheit soll also die Logik des Falles ineins mit der Logik der Gattung freigelegt werden. Das Ziel eines solchen Verfahrens besteht darin, weder die Fallanalysen zur Illustration vorgegebener Theorie verkommen zu lassen, noch theorielos einen Fall ideographisch abzubilden, ohne in ihm die individuelle Allgemeinheit des Falls zum Vorschein zu bringen. Ob dies gelang, kann nur die Evidenz der in Teil IV dargestellten Fallstudien entscheiden. Die hier gewählte Darstellungsform der Trennung von idealtypischer Rekonstruktion und Fallrekonstruktion, spiegelt den realen Forschungsverlauf nicht wider. Im Forschungsprozeß war die Idealtypenbildung aufs engste verwoben mit der sequenzanalytischen Fallrekonstruktion und es haben sich in ihm detaillierte Sequenzanalysen, Exkurse und Modellbildung ohne Systematik abgewechselt. Wollte man den Forschungsverlauf in seiner Sukzession darstellen, würde dies die Lesbarkeit der Analysen immens erschweren. Deshalb wurde aus Darstellungsgründen idealtypische Rekonstruktion und Fallrekonstruktion getrennt mit dem Preis, daß die Modelle und theoretischen Hintergrundsannahmen, von denen die Analyse ausgeht, nicht in ihrer Entwicklung am konkreten Material mitdokumentiert werden. Dies ist ein schmerzlicher Kompromiß, der nur mit dem Gewinn an Systematik und Stringenz der Darstellung aufgewogen werden kann. Gruppen und damit auch deren Dynamik waren und sind eines der zentralen Themen der Soziologie. Doch hat die Soziologie deren Erforschung immer mehr an die Sozialpsychologie abgetreten. Diese Arbeit versucht, die Gruppendynamik ein kleines Stück für die Soziologie wiederzugewinnen. Gruppendynamik ein Vierteljahrhundert nach ihrer Hochblüte zu erforschen, bietet die Chance, sie jenseits aller ideologischen Auseinandersetzungen und ohne den auftrumpfenden Gestus, der die Aktionsforschung lange Zeit begleitete, als das in den Blick zu bekommen, was sie zuerst einmal ist: eine einzigartige Methode zur Erforschung und Veränderung von Gruppen. Die gesellschaftliche Abenddämmerung, in der sich Gruppendynamik manchmal zu finden glaubt, ist die beste Stunde für die Eule der Minerva.
Das Ende des Kalten Krieges hat die Sicherheitslandschaft in Europa nachhaltig verändert. Die Auflösung von mehr oder weniger festen politischen Strukturen und der sprunghafte Anstieg der Zahl außenpolitischer Akteure führten zu einer deutlichen Schwächung der politischen Stabilität in vielen postkommunistischen Ländern. Die neue Weltordnung übte einen erheblichen Druck auf die westeuropäischen Sicherheitsallianzen wie NATO und EU aus, neue Verfahren der Entscheidungsfindung und des Krisenmanagements zu entwickeln. War die Gefahr des großen Krieges dramatisch zurückgegangen, erweiterte sich das Spektrum potentieller Gewaltkonflikte zunächst umso stärker. Angesichts dieser Verschiebungen ist im europäischen Raum in den 1990-er Jahren die Einsicht gewachsen, dass Sicherheit und Stabilität in Europa immer stärker auf internationaler Kooperation beruhen. Der Gedanke der Kooperation ist sogar zu einem bestimmenden Merkmal der praktischen Umsetzung europäischer Sicherheitspolitik geworden (Czempiel 1998a: 13). ...
RDF is widely used in order to catalogue the chaos of data across the internet. But these descriptions must be stored, evaluated, analyzed and verified. This creates the need to search for an environment to realize these aspects and strengthen RDFs influence. InterSystems postrelational database Caché exposes many features that are similar to RDF and provide persistence with semantic part. Some models for relational databases exist but these lack features like object-oriented data-structures and multidimensional variables. The aim of this thesis is to develop an RDF model for Caché that saves RDF data in an object-oriented form. Furthermore an interface for importing RDF data will be presented and implemented.