Refine
Year of publication
- 2004 (1224) (remove)
Document Type
- Article (491)
- Doctoral Thesis (235)
- Review (107)
- Part of Periodical (97)
- Part of a Book (85)
- Working Paper (43)
- Book (41)
- Report (33)
- Conference Proceeding (21)
- diplomthesis (21)
Language
- German (1224) (remove)
Keywords
- Johann Wolfgang von Goethe (36)
- Frankfurt <Main> / Universität (29)
- Rezension (24)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
- Deutschland (18)
- Deutsch (15)
- Goethe, Johann Wolfgang von (15)
- Literatur (14)
- Vormärz (14)
Institute
- Medizin (124)
- Extern (60)
- Biochemie und Chemie (46)
- Rechtswissenschaft (45)
- Physik (32)
- Erziehungswissenschaften (30)
- Biowissenschaften (26)
- Präsidium (26)
- Universitätsbibliothek (23)
- Kulturwissenschaften (22)
Despite a legal framework being in place for several years, the market share of qualified electronic signatures is disappointingly low. Mobile Signatures provide a new and promising opportunity for the deployment of an infrastructure for qualified electronic signatures. We analyzed two possible signing approaches (server based and client based signatures) and conclude that SIM-based signatures are the most secure and convenient solution. However, using the SIM-card as a secure signature creation device (SSCD) raises new challenges, because it would contain the user’s private key as well as the subscriber identification. Combining both functions in one card raises the question who will have the control over the keys and certificates. We propose a protocol called Certification on Demand (COD) that separates certification services from subscriber identification information and allows consumers to choose their appropriate certification services and service providers based on their needs. We also present some of the constraints that still have to be addressed before qualified mobile signatures are possible.
In der vorliegenden klinischen Studie wurde der Zusammenhang zwischen Hämatokrit und Mikrozirkulation bei Diabetikern mit und ohne Mikroangiopathie untersucht und in Relation gesetzt zu anderen Risikofaktoren, für die bereits eine Beeinflussung der Mikrozirkulation bei Diabetikern nachgewiesen wurde. Die Untersuchung erfolgte mittels Laser Doppler Fluxmetrie, Laser Doppler Scan und Laser Doppler Anemometrie. Als weiteres Ziel sollten diese erprobten Methoden bezüglich der Aussagekraft für die Fragestellung unserer Studie eingeordnet werden. Es zeigte sich, dass der Hämatokrit signifikant negativ mit der Ruhedurchblutung (für Mean DC: p<0,01, β = -0,411) der Hand und des Fußes (für Mean Flux: p<0,001, β=-0,531; für Mean DC: p<0,05, β= -0,359) korreliert. Dieser Einfluss lässt sich mit dem Laser Doppler Scan am Besten nachweisen. Eine signifikant positive Korrelation (p<0,05, β= 0,284) des Hämatokrits mit der Dauer der Hyperämie gemessen an der Hand besteht in der Laser Doppler Fluxmetrie, jedoch nicht in der Anemometrie. Die These, dass ein höherer Hämatokrit zu einer schlechteren Mikrozirku-lation beiträgt, wird durch eine höchst signifikante negative Korrelation der Zeit bis zum Erreichen der Maximalgeschwindigkeit mit dem Hämatokrit (p<0,001, β= -0,497) in Frage gestellt. Ob dieses Ergebnis tatsächlich neue Erkenntnisse bringt oder durch Begleitumstände beeinflusst wurde, sollte in weiteren Untersuchungen geklärt werden. Auch im Vergleich mit anderen Risikofaktoren findet sich der starke Einfluss des Hämatokrit vor allem auf die Ruhedurchblutung. Für die Dauer der Hyperämie in der Single Point Messung zeigt sich ebenfalls ein großer Einfluss von Laktatdehydrogenase (LDH) und Body Mass Index (BMI) (LDH: β= -0,311, BMI: β= -0,310, p<0,05). Unsere Ergebnisse stärken die Vermutung, dass multifaktorielle Ursachen für Änderungen der Mikrozirkulation verantwortlich sind. Der Hämatokrit spielt hierbei eine wichtige Rolle, mit der man sich weiterhin befassen und in größer angelegten Studien unter Ausschluss von Beeinflussung durch andere Variablen noch genauer untersuchen sollte. Bezüglich der beiden Messverfahren Anemometrie und Laser Doppler Fluxmetrie bleibt festzuhalten, dass es sich um ergänzende Methoden handelt. Der Laser Doppler Image Scan ist als Standardmethode für die Erfassung der Ruhedurchblutung anzusehen, während die Fluxmetrie und die Anemometrie beide verlässlich mit Provokationstests anzuwenden sind. Sie messen in verschiedenen Ebenen des Kapillarsystems und produzieren dadurch unterschiedliche Ergebnisse. Es konnte in der vorliegenden Studie nachgewiesen werden, dass ein deutlicher Einfluss des Hämatokrits auf die Mikrozirkulation besteht. Um aus unseren Ergebnissen klinische Konsequenzen für die Behandlung von Diabetikern zu ziehen, muss man sich vor allem der Frage des Zusammenhanges auf Höhe des nutritiven Kapillarsystems ausführlicher widmen und die Ursache der Veränderungen der Time to Peak in weiteren Studien abklären.
Installment Optionen
(2004)
Die vorliegende Arbeit beschäftigt sich im Wesentlichen mit Installment Optionen und deren Bewertung und Hedgemöglichkeiten. Installment Optionen werden vor allem im internationalen Treasurymanagement eingesetzt und dienen der Absicherung von Wechselkursrisiken. Die Besonderheit besteht darin, daß ein Konzern die Optionsprämie über mehrere Zeitpunkte aufteilen kann, zu denen er jeweils entscheidet, ob die Absicherung überhaupt noch benötigt wird. Dies könnte unter Umständen nicht mehr der Fall sein, wenn das zugrunde liegende internationale Geschäft des Konzerns wider Erwarten nicht zustande gekommen ist. Der exakte Wert einer Installment Option im Black-Scholes Modell besteht aus einem Ausdruck von Mehrfachintegralen, wohingegen die Anwendung verschiedener Bewertungsmethoden auf diesen approximierte Werte liefert. Die Untersuchung des Verhaltens mehrerer bekannter Methoden und die Entwicklung einer neuen Bewertungsformel für Installment Option ist Inhalt dieser Arbeit. Weiterhin wird die kontinuierliche Version der Installment Option betrachtet und für diese ein neuer Hedge bewiesen.
Das Thema der vorliegenden Arbeit war die molekulargenetische Charakterisierung der Funktion der Glukosesensoren Snf3 und Rgt2 in der Hefe S. cerevisiae. Snf3 und Rgt2 gehören zur Familie der Hexosetransporter. Sie unterscheiden sich von ihnen jedoch in ihrer Funktion als Glukosesensoren wie auch durch ihre ungewöhnlich langen Cterminalen Domänen. Snf3 und Rgt2 sind integrale Membranproteine, die als Reaktion auf extrazelluläre Glukose Signale auslösen, die zur Expression bestimmter Hexosetransporter führt. Einige Komponenten, die an der Signaltranduktion beteiligt sind, wurden bereits identifiziert. Jedoch ist der genaue Mechanismus, der zur Expression der Hexostransporter führt, noch nicht vollständig aufgeklärt. Im ersten Teil dieser Arbeit wurden die Proteine Snf3, Rgt2, Mth1, Std1 und Rgt1 auf direkte Interaktionen untereinander getestet, um Einblicke in den molekularen Mechanismus der Signaltransduktion zu erhalten. Desweiteren sollte festgestellt werden, ob die Protein-Wechselwirkungen von der C-Quelle abhängig sind. Es konnte gezeigt werden, dass zwischen den Membranproteinen Rgt2 bzw. Snf3 und den löslichen Proteinen Mth1 bzw. Std1 Interaktionen in Abhängigkeit von Glukose stattfanden. Diese Ergebnisse unterstützen das von Moriya und Johnston aufgestellte, gegenwärtige Modell für eine glukoseinduzierte HXT Genexpression. Im zweiten Teil dieser Arbeit wurde geprüft, ob sich aus dem Glukosesensor Snf3 durch eine Aminosäuresubstitution ein bifunktionaler Sensor für Glukose und Galaktose erzeugen läßt. Dazu wurden die für den Galaktosetransport verantwortlichen Aminosäuren in den homologen Positionen von Snf3 ausgetauscht. Die Bestimmungen der Regulation des Snf3-kontrollierten HXT7 Promotors ergaben, dass das mutierte Snf3 Protein, wie das Wildtyp-Snf3 Protein, eine normale Glukosesensorfunktion ausübt aber keine Galaktosesensorfunktion vorzeigt.
Aus der Notwendigkeit heraus, "nachhaltig die Funktionen des Bodens zu sichern" (§1 BBodSchG), und damit auch Bodenschutz vorsorgend in Planungsprozesse zu integrieren, wurde ein neues Bodenschutzkonzept entwickelt. Es basiert auf einer differenzierten, aber gleichzeitig nachvollziehbaren Bodenbewertung. Das Problem bei der Bodenbewertung ist, dass etwas bewertet werden soll, für das - je nach Fragestellung - immer wieder neue Ziele definiert werden müssen. Deshalb liegt der Bodenbewertung ein Zielsystem zu Grunde, das Schutzziele klar festlegt und mit Hilfe dessen die Bodenbewertung nachvollziehbar wird. Für das Bodenschutzkonzept werden aus der Vielzahl möglicher Kriterien wichtige vorgestellt, aus denen die - bezogen auf dieses Zielsystem - wesentlichen ausgewählt werden können. Um aussagekräftige Daten für diese Kriterien zu erhalten stützt sich die Bodenbewertung auf bodenkundliche sowie landschaftsgenetisch-geomorphologische Zusammenhänge. Die eigentliche Bewertung erfolgt dann in drei Schritten: zuerst eine Einzelbewertung, dann zusammengefasst nach den Bodenfunktionen Lebensraumfunktion, Regelungsfunktion, Informationsfunktion, dem Eigenwert des Bodens (Schutzwürdigkeit) sowie der Empfindlichkeit und Gefährdung (Schutzbedürftigkeit). Im dritten Schritt werden diese Bewertungen dann zu einer gewichteten, verbal-argumentativen Gesamtbewertung der Schutzwürdigkeit und Schutzbedürftigkeit zusammengefasst. Mit Hilfe des Bewertungsverfahrens werden auch Zielkonflikte zwischen den unterschiedlichen Schutzgütern offengelegt. Schutzmaßnahmen ergeben sich dann stringent aus den vorher im Zielsystem gesetzten Prämissen, d.h., Ziele und Maßnahmen sind begründbar gewählt, stehen in einem ökologischen Gesamtzusammenhang und lassen sich sehr gut nachvollziehen. Das hier vorgestellte, neue Bodenschutzkonzept ist für verschiedene Planungsebenen geeignet. Es ist in unterschiedlichen Naturräumen anwendbar, kann verschiedene Schutzziele mit Hilfe des Zielsystems bestimmen und so z.B. die Naturraumvielfalt in einem Gebiet ebenso berücksichtigen wie die Meinungsvielfalt, was unter vorsorgendem Bodenschutz zu verstehen sei.
Oskar Fischingers malerisches Oeuvre wurzelt theoretisch, ästhetisch und formal tief in der Kunstentwicklung des Deutschlands der zwanziger Jahre. Sein Ausdrucksvokabular, das von geometrischen bis zu amorphen Formen reicht, seine wechselnden, gleichermaßen zentral und flächenübergreifenden Bildgefüge mit reduzierten Inhalten oder reicher Formenfülle, sein Wandeln zwischen Abstraktion und Gegenständlichkeit, verhindert die Ausprägung einer einheitlichen Handschrift und damit auch einer eindeutigen chronologischen Entwicklung. Obwohl ästhetisch und formal den konstruktiven Tendenzen des Bauhaus und dessen Vertreter Kandinsky nahestehend sowie der lyrischen Abstraktion und Klee, wurde Fisichinger auch von östlichen Religionen, dem Mystizismus, der Astrologie, der Astronomie und der Musik geprägt. Dies manifestiert sich bisweilen in Form verschlüsselter Bildinhalte. Sein philosophischer Hintergrund bestärkt ihn in der Verwendung von abstrakten Formen als Träger metaphysischer Botschaften und bewahrt seine Bilder gleichzeitig vor formalistischer Strenge und Dekorativität. Trotzdem scheinen bestimmte Charakteristika in seinem Werk vorhanden: die Neigung des Ingenieurs zu regelmäßigen Formen und komplexem Detailwerk, das musikalische Gefühl für rhythmische Sequenzen, ein filmisches Anliegen für Bewegung und Tiefe, ein mystisches Gefühl für die anderen Dimensionen jenseits des Sichtbaren und Wirklichen. Fischingers grenzüberschreitendes Streben nach einer Befreiung der Malerei aus ihrer tradierten Form, welches sich in Projekten wie Motion Painting No.1 oder Stereo-Film manifestierte, entsprang dem Verlangen nach einem Kunstwerk, das mehrere Kunstgattungen in sich vereinigt, ein Gedanke, der sich zwingend aus seiner Auseinandersetzung mit den künstlerischen Betrachtungsweisen und Entwicklungen am Ende des 19. und zu Beginn des 20. Jahrhunderts ergab sowie aus seiner Beschäftigung mit synästhetischen Prozessen und der Filmarbeit. Diese Zielsetzung Fischingers zusammen mit motivischen Verwandtschaften zwischen seinen Filmen und der Malerei, die sich z.B. in der gemeinsamen Verwendung geometrischer Motive oder anderer gestalterischer Elemente wie der Aneinanderreihung von Farbbahnen (Abb. 26 – 28) zeigt, führten noch bis Anfang der siebziger Jahre zu einer Ignoranz seiner Malerei als eigenständige künstlerische Ausdrucksform. Noch 1970 wurde in einer Fischinger-Retrospektive im Long Beach Museum of Art in Kalifornien der Versuch unternommen, seine Gemälde direkt einzelnen Sequenzen seiner Filme zuzuordnen. Die Kunstkritik reagierte entsprechend abweisend auf die damalige Ausstellung. Der Journalist William Wilson schreibt „....half the time they don´t work as paintings because Fischinger evidently conceived of them as films.“ Erst einige Jahre später begannen sich Tendenzen zu einer mehrere Sparten übergreifenden Kunst durchzusetzen. Binnenkünstlerische Grenzen werden aufgehoben und Ausdehnungen in die Bereiche Video, Umraum, Objekt, Licht und Kinetik fanden statt. In diesem Zusammenhang ist Fischinger nicht nur einer der Wegbereiter der Op Art und der Holographie. Sein 1950 entwickelter Lumigraph, ein Lightshowgerät für den Hausgebrauch könnte ebenfalls als eine Vorform der Neon- und Laserkunst betrachtet werden. Trotzdem haben die Vergleiche mit den Künstlern Kandinsky, Klee und Mondrian gezeigt, dass Fischingers Malerei theoretisch, ästhetisch und formal zutiefst in der modernen Kunstentwicklung im Deutschland der zwanziger und dreißiger Jahre wurzelt. Die Betonung des Gleichgewichts von Intuition und Methode (Kap. 6.4.), die Auseinandersetzung mit den geometrischen Grundformen des Kreises, Quadrates, des Dreiecks und ihren farblichen Korrelationen (Kap. 6.4.), die Verwendung von geometrischem oder gegenständlich symbolischem Ausdrucksvokabular zur Darstellung spiritueller Inhalte (Kap. 7.3.), die Auseinandersetzung mit den synästhetischen Zusammenhängen von Farbe und Musik (Kap 7.3.) und der Assymetrie als Grundlage für das formale Gleichgewicht der Bildkräfte (Kap. 7.7.), dies sind Themen, mit denen sich Fischinger zwischen 1936 und 1967 sowohl auf der Basis von kunsttheoretischen Schriften als auch in seiner Malerei intensiv auseinandergesetzt hat. Sein Festhalten an den formal und stilistisch in den dreißiger Jahren entwickelten Gestaltungsmitteln und seine Verinnerlichung von Kunsttheorien der zwanziger Jahre könnte man zusammen mit seinem Desinteresse am internationalen Kunstgeschehen und an der angelitanischen Kunstszene als Ausdruck mangelnder geistiger Flexibilität und Anpassungsfähigkeit und damit als Akkulturationsproblem auffassen. Es könnte jedoch auch als Ausdruck einer konsequenten Umsetzung seiner künstlerischen Prinzipien verstanden werden. Die Beschreibung der Innenwelten stellt sich in diesem Zusammenhang als unabhängig von den Geschehnissen der Außenwelt und modischen Kunsttendenzen dar. Sie bedient sich eines abstrakten Zeichenvokabulars, das als universelles sprachliches Mittel keinem zeitlichen Wandel unterliegt. Die abstrakte Sprache, so wie sie Fischinger, Klee oder Kandinsky verstanden, war darüber hinaus keine Sprache der Zugehörigkeit zu einer bestimmten Gruppe oder Anschauung. So erklärt sich auch der mangelnde amerikanische Einfluss auf das malerische Werk Fischingers. Gemeinsamkeiten zwischen ihm und der kalifornischen Kunstszene der vierziger und fünfziger Jahre zeigen sich nur in dem Interesse an seriellen Strukturen und an den Entwicklungen der Monochromen und Meditativen Malerei. Wenn auch der Maler Fischinger aufgrund seines frühen Weggangs in seiner Heimat ein Unbekannter geblieben ist, so findet sein Werk in den Vereinigten Staaten zunehmende Anerkennung. In jüngster Zeit sind seine Gemälde in zahlreichen Ausstellungen vertreten, darunter 1993 in der in Washington eröffneten Wanderausstellung "Thema und Improvisation: Kandinsky und die amerikanische Avantgarde". Diese Popularität verdankt er wesentlich der Rückbesinnung auf ein bisher vernachlässigtes Kapitel amerikanischer Kunstgeschichte - der kalifornischen Malerei der vierziger Jahre. Fischinger zählt heute neben Lorser Feitelson, Helen Lundeberg, Peter Krasnow, Knud Merrild und Hans Burkhardt zu einem der wichtigsten Vertreter der südkalifornischen Malerei. Diese zeichnet sich im Vergleich zur Kunstmetropole New York jedoch mehr durch eine reiche Vielfalt stilistischer Ausprägungen und durch die Wahrung künstlerischer Individualität aus als durch avantgardistische Bestrebungen und einheitliches Stilwollen. 1992 stellte der Kurator des Washington Museum of Art anläßlich der Ausstellung "Turning the Tide" fest: "Fischinger is just now beginning to receive the attention he deserves beyond film critics and historians, recognition that ironically may have been delayed by his identification with art cinema."
Entmachtete Gegenstände? : Zur Kommerzialisierung sakraler Masken bei den Piaroa in Venezuela
(2004)
Der Begriff Gruppendynamik ist überbestimmt. Er kann erstens die psychosozialen Prozesse meinen, die Gruppen die Erfüllung ihrer Aufgabe schwer machen. Zweitens bezeichnet Gruppendynamik eine vorwiegend sozialpsychologische Forschungsrichtung, die sich mit der Untersuchung von Gruppen und ihrer Eigengesetzlichkeit befaßt. Und drittens hat sich unter dem Namen Angewandte Gruppendynamik eine Interventionspraxis herausgebildet, deren Ziel die methodische Beeinflussung der gruppendynamischen Phänomene und Prozesse ist. Diese Interventionspraxis ist der Gegenstand dieser Arbeit. Wie und warum es zu einer Trennung von Gruppendynamik als akademischer Forschungsrichtung und Gruppendynamik als Interventionspraxis kam, obwohl sie sich mit denselben Phänomenen befassen, ist selbst Teil des zu Untersuchenden. Gruppendynamik als institutionalisierte Praxis besteht in Deutschland seit mehr als 30 Jahren. Das erste deutsche gruppendynamische Laboratorium fand im Geburtsjahr des Autors, 1963, statt. Dazwischen hat Gruppendynamik zahlreiche Metamorphosen durchgemacht. Von einer emanzipatorischen Methode der „Neufundierung von Autorität“ in den 70er Jahren wandelte sie sich zu einer Schlüsselqualifikation für Organisationsberater in der 80ern. Heute ist sie zwischen Therapie, Supervision und Beratung angesiedelt und nur schwer als eigenständige Methode erkennbar. Gruppendynamik ist zu einem „historischen Begriff“ geworden und für einen solchen gilt Max Webers Einsicht, daß man ihn nicht nach dem Schema: genus proximum, differentia specifica definieren kann, „sondern er muß aus seinen einzelnen der geschichtlichen Wirklichkeit zu entnehmenden Bestandteilen allmählich komponiert werden. Die endgültige begriffliche Fassung kann daher nicht am Anfang, sondern muß am Schluß der Untersuchung stehen.“ Diese Arbeit beginnt deshalb nicht mit einer Definition von Gruppe, Gruppendynamik und gruppendynamischer Praxis, sondern geht von einigen wenigen Zentralkonzepten aus, die bis heute zum normativen Kernbestand der angewandten Gruppendynamik gehören und versucht mit deren Hilfe, die Besonderheit gruppendynamischer Praxis freizulegen. Laboratorium, Trainingsgruppe, Hier und Jetzt-Prinzip sowie Minimalstrukturierung bilden zusammen den strukturellen Rahmen gruppendynamischer Praxis: den gruppendynamischen Raum. In ihm sind die Teilnehmer mit dem gruppendynamischen Strukturproblem konfrontiert: Zugehörigkeit, Macht und Intimität kollektiv zu gestalten und zu erforschen. Die Rekonstruktion von gruppendynamischem Raum und gruppendynamischem Strukturproblem ist Inhalt von Teil I dieser Arbeit. In Teil II wird danach gefragt, welche soziale und affektive Dynamik das gruppendynamische Strukturproblem induziert. Diese Dynamik wird in zweifacher Perspektive untersucht: im Blick auf das soziale Netzwerk Gruppe wird Gruppendynamik als Vergemeinschaftungsprozeß interpretiert, im Blick auf die Individuen als Übertragungsgeschehen. Der sozialisationstheoretische Rekurs auf die Dynamik der Primärgruppe Familie und der präadoleszenten Peer-group kann zeigen, daß das gruppendynamische Strukturproblem universelle und elementare sozialisatorische Konflikte hervorruft. Teil III greift die ungelösten Fragen von Teil I auf und stellt die spannungsvolle Geschichte der Gruppendynamik von Deutschland nach Amerika und zurück dar. Gruppendynamik, entstanden aus einem Junktim von Forschen und Verändern, hat auf ihrem Weg dieses Junktim aufgelöst und die beiden auseinander gebrochenen Hälften jeweils an die akademische Kleingruppenforschung und an die angewandte Gruppendynamik delegiert. Das hat der angewandten Gruppendynamik eine hohe Anschlußfähigkeit an die Bedürfnisse des Selbsterfahrungs- und Fortbildungsmarktes sowie der Organisationsberatung verschafft. Die Rückseite dieses Geschehens bildet eine in den entsprechenden Fachpublikationen regelmäßig beklagte Theoriestagnation. Die historischen Exkurse können bei der Frage weiterhelfen, wie sich die Besonderheit von Gruppendynamik im Dreieck von Forschen, Erziehen und Heilen strukturell bestimmen läßt. In dieser Arbeit wird der Versuch unternommen, gruppendynamische Praxis konsequent als Forschungspraxis zu deuten und von allen edukativen und therapeutischen Methoden abzugrenzen. Können die Teile I und II zeigen, daß das gruppendynamische Strukturproblem die Teilnehmer in einen übertragungsreichen Vergemeinschaftungsprozeß führt, können die Fallstudien in Teil IV zeigen, wie dies geschieht und wie Gruppen kollektiv unter Begleitung der Trainer diese Aufgabe gestalten. Material der Fallstudien sind Trainingsgruppen aus gruppendynamischen Fortbildungsveranstaltungen, die von den entsprechenden Dachverbänden der deutschen, schweizer und österreichischen Gruppendynamiker ausgeschrieben wurden. Diese Fallstudien können also relativ viel über die Prozesse in T-Gruppen sagen und wenig über das gruppendynamische Geschehen in Großgruppen. Doch da eine T-Gruppe, in der Regel bestehend aus einem Dutzend Teilnehmer und einem Trainerpaar, den normativen Kern der meisten gruppendynamischen Veranstaltungen bildet, läßt sich durch deren Analyse Wesentliches über gruppendynamische Praxis herausfinden, auch wenn die Intergruppen- und Großgruppendynamik ein wichtiger Bestandteil dabei ist. Mit der Methode der ojektiven Hermeneutik werden zwei Trainingsgruppen ausführlich analysiert. Die erste Gruppe geht über fünf Sitzungen, die zweite über zehn Sitzungen. Wird am Material dieser Gruppen der gruppendynamische Prozeß untersucht, so beleuchten die vier Fallvignetten jeweils einzelne Facetten gruppendynamischer Praxis. Die Ergebnisse dieser Fallstudien dienen dann im Teil V dazu, den gruppendynamischen Prozeß in seiner elementaren Dynamik und in seinem Lernpotential zu beleuchten. Die Teile I bis III rekonstruieren gruppendynamische Praxis idealtypisch, sie fragen also nicht danach, welche verschiedenen Formen und Interpretationen von Gruppendynamik sich historisch herausgebildet haben, sondern sie bilden einen Idealtypus. Nun ist die Empirie keine Kollektion von Idealtypen und zur Abbildung der Gruppendynamik in ihrer polypragmatischen Vielgestaltigkeit taugt eine idealtypische Rekonstruktion wenig. Der Zweck einer Idealtypenbildung besteht vielmehr darin, einen Begriff aus der Sache selbst zu entwickeln, an dem die Sache dann gemessen werden kann. Idealtypenbildung geht von der Einsicht aus, daß eine Theorie ihrem Gegenstand nur angemessen ist, wenn sie aus ihm entwickelt worden ist, deshalb gehen Theoriebildung und Fallrekonstruktion bei der Idealtypenbildung parallel einher. In der akribischen Rekonstruktion eines Einzelfalles in seiner Besonderheit soll also die Logik des Falles ineins mit der Logik der Gattung freigelegt werden. Das Ziel eines solchen Verfahrens besteht darin, weder die Fallanalysen zur Illustration vorgegebener Theorie verkommen zu lassen, noch theorielos einen Fall ideographisch abzubilden, ohne in ihm die individuelle Allgemeinheit des Falls zum Vorschein zu bringen. Ob dies gelang, kann nur die Evidenz der in Teil IV dargestellten Fallstudien entscheiden. Die hier gewählte Darstellungsform der Trennung von idealtypischer Rekonstruktion und Fallrekonstruktion, spiegelt den realen Forschungsverlauf nicht wider. Im Forschungsprozeß war die Idealtypenbildung aufs engste verwoben mit der sequenzanalytischen Fallrekonstruktion und es haben sich in ihm detaillierte Sequenzanalysen, Exkurse und Modellbildung ohne Systematik abgewechselt. Wollte man den Forschungsverlauf in seiner Sukzession darstellen, würde dies die Lesbarkeit der Analysen immens erschweren. Deshalb wurde aus Darstellungsgründen idealtypische Rekonstruktion und Fallrekonstruktion getrennt mit dem Preis, daß die Modelle und theoretischen Hintergrundsannahmen, von denen die Analyse ausgeht, nicht in ihrer Entwicklung am konkreten Material mitdokumentiert werden. Dies ist ein schmerzlicher Kompromiß, der nur mit dem Gewinn an Systematik und Stringenz der Darstellung aufgewogen werden kann. Gruppen und damit auch deren Dynamik waren und sind eines der zentralen Themen der Soziologie. Doch hat die Soziologie deren Erforschung immer mehr an die Sozialpsychologie abgetreten. Diese Arbeit versucht, die Gruppendynamik ein kleines Stück für die Soziologie wiederzugewinnen. Gruppendynamik ein Vierteljahrhundert nach ihrer Hochblüte zu erforschen, bietet die Chance, sie jenseits aller ideologischen Auseinandersetzungen und ohne den auftrumpfenden Gestus, der die Aktionsforschung lange Zeit begleitete, als das in den Blick zu bekommen, was sie zuerst einmal ist: eine einzigartige Methode zur Erforschung und Veränderung von Gruppen. Die gesellschaftliche Abenddämmerung, in der sich Gruppendynamik manchmal zu finden glaubt, ist die beste Stunde für die Eule der Minerva.
Das Ende des Kalten Krieges hat die Sicherheitslandschaft in Europa nachhaltig verändert. Die Auflösung von mehr oder weniger festen politischen Strukturen und der sprunghafte Anstieg der Zahl außenpolitischer Akteure führten zu einer deutlichen Schwächung der politischen Stabilität in vielen postkommunistischen Ländern. Die neue Weltordnung übte einen erheblichen Druck auf die westeuropäischen Sicherheitsallianzen wie NATO und EU aus, neue Verfahren der Entscheidungsfindung und des Krisenmanagements zu entwickeln. War die Gefahr des großen Krieges dramatisch zurückgegangen, erweiterte sich das Spektrum potentieller Gewaltkonflikte zunächst umso stärker. Angesichts dieser Verschiebungen ist im europäischen Raum in den 1990-er Jahren die Einsicht gewachsen, dass Sicherheit und Stabilität in Europa immer stärker auf internationaler Kooperation beruhen. Der Gedanke der Kooperation ist sogar zu einem bestimmenden Merkmal der praktischen Umsetzung europäischer Sicherheitspolitik geworden (Czempiel 1998a: 13). ...