Refine
Year of publication
- 2013 (1502) (remove)
Document Type
- Article (396)
- Part of Periodical (206)
- Contribution to a Periodical (183)
- Part of a Book (161)
- Book (115)
- Review (112)
- Report (90)
- Doctoral Thesis (65)
- Conference Proceeding (59)
- Working Paper (52)
Language
- German (1502) (remove)
Keywords
- Deutsch (66)
- Germanistik (37)
- Theorie (34)
- Literatur (33)
- Bologna-Prozess (32)
- Exzellenzinitiative (32)
- Zukunft (32)
- Benjamin, Walter (31)
- Rezeption (17)
- Deutschland (16)
Institute
- Präsidium (306)
- Gesellschaftswissenschaften (127)
- Exzellenzcluster Die Herausbildung normativer Ordnungen (72)
- Geschichtswissenschaften (64)
- Medizin (38)
- Physik (38)
- Rechtswissenschaft (36)
- Universitätsbibliothek (34)
- Wirtschaftswissenschaften (27)
- Erziehungswissenschaften (23)
Aufklären statt verklären
(2013)
Nicht jeder Innenraum ist ein Interieur. Das Interieur ist ein unter spezifischen historischen, gesellschaftlichen und kulturpoetischen Bedingungen entstandenes komplexes Gebilde. Es lässt sich durch die Bündelung von drei Aspekten rekonstruieren: 1. einer Kultur- und Komfortgeschichte de Wohnens; 2. einer Beschreibung des Widerspiels von Draußen und Drinnen und 3. der interieurspezifischen Bestimmung einer Raumästhetik, bestehend aus einer Poetik der Atmosphäre und der Dinge und konstituiert aus Erwartung, Erinnerung und Koketterie.
In der Zeitschrift Studia Germanistica werden Forschungsergebnisse zu aktuellen Themen auf dem Gebiet der germanistischen Linguistik, Literaturwissenschaft und DaF-Didaktik publiziert, die den Stand der Forschung in Tschechien sowie im Ausland dokumentieren. Bestandteile der Zeitschrift sind kulturwissenschaftliche Studien und Rezensionen.
In der heutigen Zeit werden viele Anwendungen als Webanwendungen entwickelt, weil man sie schneller auf den Markt werfen kann. Neue Methoden wurden entwickelt um den Softwareentwicklungsprozess zu verschlanken, um damit noch schneller und öfter eine Produkt auf den Markt zu bringen. Diese Methoden erschweren die Arbeit von manuellen Tester ungemein. Sie müssen jetzt noch schneller und noch öfter testen.
Um dieser Miesere entgegenzuwirken wurden Testautomatisierungsmechanismen und Testautomatisierungswerkzeuge entwickelt. In dieser Arbeit wollte ich zeigen, dass Testautomatisierung in bestehenden Projekten nachträglich noch eingefügt werden kann. Und das diese für eine verbesserte Qualität des Produktes sorgen kann.
Ich habe in dieser Arbeit den Testfallkatalog für das Produkt „Email4Tablet“ der Firma Deutsche Telekom AG zu 70% mit dem Testwerkzeug Selenium automatisiert.
Dem Druck standhalten
(2013)
In der Zeitschrift Studia Germanistica werden Forschungsergebnisse zu aktuellen Themen auf dem Gebiet der germanistischen Linguistik, Literaturwissenschaft und DaF-Didaktik publiziert, die den Stand der Forschung in Tschechien sowie im Ausland dokumentieren. Bestandteile der Zeitschrift sind kulturwissenschaftliche Studien und Rezensionen.
What do corpora reveal about ongoing grammaticalization and transitions between word class categories? Everything, something, or nothing? Using the example of the lexemes nicneříkající, nichtssagend, všeříkající and vielsagend the authors examine the syntactic distribution and semantics of participial adjectives. To what extent do the Czech and German equivalents differ? What (if any) effect does the orthography have (i.e. whether the expressions are written as compounds or as chains of separate words)? Is a new form accompanied by a new function? The text presents an analysis of monolingual corpora (SYN, DeReKo) and a parallel corpus (InterCorp).
Wartburg castle is associated not only with Luther's German translation of the Bible, but also with the legendary singing contest that is said to have taken place there in the early 13th century. Although today it is impossible to tell whether this was a real event or merely a legend, the contest became a popular basis for literary treatments. The "classic" version of the story was presented in the 19th century by Richard Wagner in his opera "Tannhäuser und der Sängerkrieg auf Wartburg", while the most recent version of the story dates from 2012: Robert Löhr's novel "Krieg der Sänger". Because Löhr's version was almost immediately compared with Wagner's, the aim of this study is to analyze the two works and draw conclusions from such a comparison. Which sources did both authors work with, and how? Were they primarily concerned with a historically accurate depiction of events, entertaining the reader or audience, or communicating some deeper thoughts? In what light are the main hero and his competitors presented? What do Wagner and Löhr have in common, and how do they differ?
Analyse ausgewählter (sprachwissenschaftlicher) Nachschlagewerke und ihrer Benutzerfreundlichkeit
(2013)
This metalexicographic study compares four selected (linguistic) dictionaries. The results will potentially assist teachers in choosing a dictionary for students of German in the early phase of their studies. Selected lemmas are analyzed in a case study from the perspective of linguistic, academic and additional information; these lemmas are taken from the categories of phonetics and phonology, as these disciplines are generally covered first in a German degree programme. The selected dictionaries are also compared in terms of the range of phonetic and phonological concepts covered.
The aim of this article is to explore semantic relations within somatic phraseology using concepts from cognitive linguistics and prototype theory. The typicality or atypicality of representatives of the category of somatic phraseologisms is determined on the basis of 12 features of idiom irregularity according to Dobrovoľskij. The analysis results in a table of "good" and "bad" representatives of the category. Individual parameters are evaluated, but the value of individual criteria is also considered. This method makes it possible to determine the status of individual somatic phraseologisms with regard to each other, as well as the entire group of somatisms against other phraseologisms. The results enable conclusions to be drawn regarding the degree of motivatedness of somatisms.
During the last two decades of the 20th century writers gradually returned to traditional narrative methods, though their works were creatively enriched by the incorporation of new tendencies. The results of these efforts show traces of literary postmodernism. One of the representatives of German-language postmodern literature is Sten Nadolny, whose oeuvre is typified by its openness to the plurality and diversity of the world. His novel "Ein Gott der Frechheit" revives ancient gods and mythological figures, revealing the mysteries of old legends; this is viewed as a background to the self-destructive disorientation of contemporary society.
The article examines the reception of Hugo von Hofmannsthal's works by two Czechoslovak authors writing in German: Max Brod and Josef Mühlberger. The reception of Hofmannsthal's oeuvre is reflected primarily in Brod's novel "Mira", Brod's correspondence with Hofmannsthal, and Mühlberger's essay "Hugo von Hofmannsthal". The article explores how both authors depict the Viennese poet and what they consider to be Hofmannsthal's main significance and legacy for future generations. The article also compares Brod's and Mühlberger's statements with thematically similar texts by the Austrian author.
The article characterizes the stylistic tendencies found in academic economic texts with a high degree of abstraction presenting economic theory from the end of the 18th century to the present day. At the centre of the author's attention are changes that are visible on the microstructural level of the text. In this connection, the author also describes quantitative methods that can be used in the diachronic analysis of academic texts.
The research focuses on the narrative verbalization of mental reactions to the official announcement of 9 November 1989 stating that citizens of the GDR were henceforth permitted to travel to the West. This announcement differs from the type of unexpected information which is readily believable and comprehensible, to which we respond with interjections (change-of-state tokens: oh, ach, ach so) and certain formulations (das glaub ich, ich verstehe). Respondents from both East and West Berlin represented in the "Wende-Korpus" reacted from the cognitive perspective with mistrust and incomprehension, and from the emotional perspective with surprise, which was reflected both in syntactic structure and in the frequent use of metaphors. The report was more frequently interpreted as a joke than as a real event.
Zur Problematik der Konnektoren im Satz und im Text aus der Perspektive der Textverständlichkeit
(2013)
Linguistic analyses have shown that connectors perform various functions: besides connecting separate clauses, clauses within clause complexes, and other parts of a text, they can also play a major role in text comprehensibility. However, further examination of this issue requires a more precise delineation of the term "connector", which is understood in various ways. The article presents these various conceptions in tabular form and carries out a comparison. The author then moves on to examine how connectors can affect (or increase) the comprehensibility of a text. Here too it is difficult to reach clear conclusions, as various authors approach the issue from various perspectives. In order to present the full variety of connectors, the various approaches to connectors and their optimizing function are formulated as arguments in favour and against, which are summarized, compared and evaluated.
The article analyzes two early works by Hugo von Hofmannsthal: Das kleine Welttheater and Das Märchen der 672. Nacht. The author focuses on artistically perceptive characters: the poet and artist (in Das kleine Welttheater) and the "dilettante" (in Das Märchen der 672. Nacht). Using examples of the analyzed characters, the article attempts to define the features that are typical of the artist and the dilettante, explains the concepts of "pre-existence" and "existence" and gives an account of their importance in Hofmannsthal's work. The author characterizes the artistically perceptive characters on the basis of these concepts.
Das Zusammenspiel der Valenz- und Konstruktionsgrammatik auf dem Feld der syntaktischen Analysen
(2013)
Many linguistic discussions have focused on the question whether construction grammar represents an alternative descriptive grammatical model to valency grammar. The aim of this paper is to evaluate the pros and cons of valency grammar-based and construction grammar-based models using actual linguistic data, demonstrating that both models are mutually complementary and thus represent a suitable framework for syntactic and semantic analysis.
A university continually produces new knowledge and discoveries, knowledge which is condensed in mental concepts resp. terms. These concepts have to be nominated by linguistic signs, normally by words. Research in linguistic fields provides the essential theoretical and practical fundaments, especially by research in language for special purposes.
Für mehrere Generationen von Germanisten ist der Name Zdeněk Masařík ein Begriff. Manche ehren ihn als einen anspruchsvollen, strengen, aber gerechten Lehrer, manche würdigen ihn als einen tüchtigen Wissenschaftler und großen tschechischen Sprachgermanisten und manche schätzen ihn als einen verlässlichen Kollegen, ausgezeichneten Sänger und guten Menschen. Beim zusammentreffen mit diesem energischen Mann will man nicht glauben, dass er in diesem Jahr seinen 85. Geburtstag feierte, denn man hat den Eindruck, seine Seele bleibt immer jung.
Am 19. Februar dieses Jahres feierte unser verehrter Kollege und Freund, Prof. em. Dr. Dr. h.c. mult. Norbert Richard Wolf, ein großer Anhänger der Auslandsgermanistik, ein wirksamer und unermüdlicher spiritus movens in zahlreichen, die Grenzen der Tschechischen Republik überschreitenden wissenschaftlichen Projekten, seinen 70. Geburtstag.
Tierhorrorfilm
(2013)
Tierhorror – Genre oder Motivkreis? Kennt der Tierhorror genretypische Erzählmuster? Gemeinsam ist allen Filmen der überaus langen Liste von Beispielem, die man dem Motivkomplex zuordnen würde, dass sie Tiere als Hauptfiguren inszenieren, immer in der Position der Bösewichte, in immer tödlicher Bedrohung der Menschen, die sich zur Wehr setzen und retten müssen, sich und manchmal die ganze Welt. Tierhorror als filmisches Sujet wird erst in der Tonfilmzeit entfaltet, auch wenn es bereits Drachenwesen (man denke an Siegfrieds Kampf in Fritz Langs Die Nibelungen, Deutschland 1924) und Dinosaurier gegeben hat (The Lost World, USA 1925, Harry O. Hoyt, Willis O’Brien, nach dem Roman Conan Doyles) und Stoffe wie Arthur Conan Doyles The Hound of the Baskervilles (1901-02) bereits in den 1910ern mehrfach verfilmt wurden. Eigenständigkeit bekam der Tierhorror erst in den 1950ern, erst seitdem hat er sich in die Vielfalt der Erscheinungen entfaltet, wie wir ihn heute kennen. Im gleichzeitigen Wirken der Strategien von Wiederholung, Variation und Veränderung entsteht ein dem Genre und dem Motivkomplex eigenes Gedächtnis der Formen und der Inhalte, ein konventioneller, historisch gewachsener Bestand an Figuren, dramatischen Konstellationen, Erzähltechniken, auf den über Jahrzehnte hinweg zurückgegriffen werden kann. Selbst die Substantialia der Erzählung – die Handlungsorte, Requisiten oder die gesamte natürliche und kultürliche Umwelt der Figuren – sind resistent gegen allzu schnelle Variation. Sie spielen mit dem Wiedererkennen (auf einer realistischen wie auf einer imaginären Ebene, weil Alligatoren tatsächlich gefährlich sind und weil es Schneemenschenwesen nicht gibt, die Begegnung mit ihnen in der Welt der Fiktion aber trotzdem tödlich sein kann).
Aktuell werden im Bund-Länder-Programm für bessere Studienbedingungen und mehr Qualität in der Lehre hochschuldidaktische Programme vieler deutscher Universitäten und Hochschulen auf 5+5 Jahre gefördert. Nach Abschluss der ersten fünf Jahre müssen die hochschuldidaktischen Maß-nahmen in einer Wirksamkeitsmessung bestehen, wenn sie weitere fünf Jahre Förderung erhalten wollen. Dieser Beitrag berichtet über einige bekannte Wirksamkeitsstudien der hochschuldidaktischen Forschung, zeigt messmethodische Ansätze auf und beleuchtet Empfehlungen zur Generierung weiterer Messmethoden, die zur Evaluation der ersten fünf Jahre eingesetzt werden könnten.
Mediennutzung
(2013)
Der Kaffeestrauch gehört zu der großen, weltweit verbreiteten Pflanzenfamilie der Rubiaceae (Rötegewächse) und hier zur Gattung Coffea. Die am häufigsten kultivierten Arten sind C. arabica (Arabica-Kaffee), ursprünglich aus Äthiopien und Sudan, und C. canephora (Robusta-Kaffee), der ursprünglich aus West- und Zentral-Afrika, Sudan, Uganda und Angola stammt.
Den drei Gewürzen Gewürznelke, Sternanis und Zimt ist gemeinsam, dass sie eine lange, wirtschaftlich glorreiche und bisweilen kriegerische Geschichte haben, dass man unzählige Informationen dazu im Zeitschriften- und Buchhandel sowie im Internet findet und dass es eine Überfülle von Nutzanwendungen und Rezepten gibt. Im vorliegenden Beitrag werden Biologie und Verwendung dieser Weihnachtsgewürze beschrieben.
Ausgangsfragen: Was sind die grundlegenden methodisch-theoretischen Veränderungen des Faches in den vergangenen dreißig bis vierzig Jahren? Welchen Stellenwert haben Methoden und Theorien heute im Fach? In welchem Verhältnis steht die germanistische zur allgemeinen Methoden- und Theoriereflexion in den Geisteswissenschaften? Befinden wir uns am Ende des 'theoretischen Zeitalters'? Hat die Konzentration auf Methodik und Theorie das Fach der gebildeten Öffentlichkeit noch mehr als ohnehin entfremdet? Worin bestünden bzw. existieren überhaupt Alternativen zur Theorie? Etwa in Form einer Renaissance von Biographie oder Hermeneutik? Braucht das Fach überhaupt eine breite Debatte über seine theoretischen Horizonte und methodischen Standards? Oder sind andere Fragen vordringlicher, etwa eine stärkere Reflexion der gesellschaftlichen Aufgaben der Germanistik?
Barriereinseln und Außensände, geformt durch eine Kombination aus Wind, Wellen, Strömung und Küstenlängstransport gelten als morphologisch hoch aktive Küstenbereiche und variieren häufig in Ursprung, Genese und Entwicklung. Sie besitzen durch ihre dissipative Wirkungsweise eine bedeutende Schutzfunktion für rückwärtige Inseln, Halligen und Festlandbereiche und bilden vor der Küste Nordfrieslands die westliche Außengrenze des Wattenmeeres.
Ziel der nachfolgenden Studie ist es, anhand hochauflösender Georadarmessungen und sedimentologischer Daten aus Bohrungen die Landschaftsgeschichte an der Westküste Amrums sowie die Entstehung und interne sedimentäre Architektur des der Insel westlich angelagerten Kniepsandes zu untersuchen und die Prozesse, die zur Genese geführt haben, durch Datierungen zeitlich einzuordnen. Auf Grundlage der gewonnenen Daten wurden zwei stratigraphische Modelle entwickelt, welche die geologisch-geomorphologischen Prozesse und Sedimentationsbedingungen im Westküstenvorfeld erklären.
Ein Modell zeigt die Landschaftsentwicklung an der Westküste Amrums und beschreibt die Sedimentationsbedingungen, die im Vorfeld der Westküste herrschten, bevor der Kniepsand an die Insel heranwanderte. Auf der Landoberfläche des ertrinkenden saaleeiszeitlichen Geestkerns wurden zu Beginn der Flandrischen Transgression feinkörnige Sedimente eines Mischund Schlickwatts abgelagert. Es ist davon auszugehen, dass der damals noch weit vor der Küste Amrums liegende Kniepsand eine Barriere bildete und so an der heute hochenergetischen Westküste für strömungsberuhigte Sedimentationsbedingungen sorgte. Durch Erosion am Geestkern bildeten sich in unterschiedlichen Höhenpositionen fossile Kliffs, die dem damaligen Meeresspiegelstand entsprechen.
Ein weiteres Modell beschreibt den Andockmechanismus des Kniepsandes an die Insel Amrum. Durch die Anlagerung des ehemaligen Außensandes und den damit einhergehenden Sedimentinput wurden die Bedingungen für eine großflächige Dünenbildung geschaffen.
Stephan Günzel, dem Herausgeber des hier anzuzeigenden 'Lexikons der Raumphilosophie', verdankt die kulturwissenschaftliche Forschung zu Begriff und Metapher des Raumes eine Reihe bedeutsamer Publikationen. Den Auftakt bildete der zusammen mit Jörg Dünne herausgegebene Band 'Raumtheorie' aus dem Jahre 2006, eine klug und umsichtig eingeleitete Auswahl gleichsam kanonischer Texte zu Raum und Räumlichkeit. Diesem Reader trat drei Jahre später ein 'Raumwissenschaften' überschriebener, nunmehr von Günzel alleine verantworteter Band zur Seite, der eine stattliche Anzahl von Einzelbeiträgen verschiedener Autoren unterschiedlichster Disziplinen zusammenbrachte. Der Sammelband gab Einblick in den damaligen Stand kulturwissenschaftlicher Arbeit am Raum; vor allem machte er deutlich, welch hohe Relevanz die Diskussion um Begriff und Metapher des Raumes für die einzelnen Disziplinen und deren aktuelle Forschungsarbeit beanspruchen kann. Auf die Dokumentation der Quellen und den Maßstäbe setzenden Sammelband folgt nun also ein Wörterbuch - zusammen mit den beiden Vorgängerveröffentlichungen bildet das jüngst erschienene 'Lexikon' eine Trilogie des 'spatial turn' im Bereich der deutschsprachigen Forschung.
Die Goethe-Universität hat sich als eine der ersten deutschen Universitäten dem Urteil ihrer Studierenden gestellt: Die im Juni veröffentlichte repräsentative Umfrage ist eine der umfassendsten Studien, die es je an einer deutschen Universität gegeben hat. 40.000 Studierende waren an Deutschlands drittgrößter Universität eingeladen, Auskunft zu geben über ihre persönlichen Präferenzen im Studium, aber auch, ihre Alma Mater in Bereichen wie Studien- und Prüfungsorganisation zu bewerten.
Der ischämische Schlaganfall zählt zu den häufigsten Todesursachen in den Industrienationen und hinterlässt die meisten überlebenden Patienten in einer Pflegebedürftigkeit. Trotz der hohen Inzidenz und der gravierenden Folgen eines Schlaganfalls gibt es bislang keine ausreichende medikamentöse Therapie zum Schutz der Nervenzellen. Die akute Versorgung beschränkt sich auf die Lyse des Thrombus, welcher die betroffene Hirnarterie verschließt, und auf symptomatische Maßnahmen.
In der vorliegenden Dissertation wurden daher das neuroprotektiv wirkende Bilobalid, eine Substanz aus dem Ginkgo biloba Baum, und das anaplerotisch wirksame Triheptanoin auf ihre schützende Wirkung während eines ischämischen Schlaganfalls im Mausmodell untersucht. Zusätzlich wurden in der Bilobalid-Studie Tiere aus zwei verschiedenen Altersgruppen (6-8 Wochen gegen 18-24 Monate) verglichen. Der transiente Schlaganfall wurde in der Maus durch einstündigen Verschluss der mittleren Cerebralarterie (MCAO, middle cerebral artery occlusion) induziert.
Bilobalid wurde prophylaktisch eine Stunde vor Induktion des Schlaganfalls intraperitoneal (10 mg/kg) oder lokal in das betroffene Hirnareal (10 µM) verabreicht. Alle durchgeführten Experimente wiesen auf eine deutliche Neuroprotektion durch die Gabe von Bilobalid hin. Ein Tag nach MCAO war die Infarktfläche durch die Gabe von Bilobalid signifikant vermindert. In den durchgeführten motorischen Verhaltenstests schnitten die Bilobalid-behandelten Tiere wesentlich besser ab als unbehandelte Tiere. Der beobachtete Schutzeffekt von Bilobalid wurde auf mitochondriale Prozesse zurückgeführt: Die nach Ischämie beobachteten Defizite in Komplex I der mitochondrialen Atmungskette wurden durch die Gabe von Bilobalid deutlich vermindert. Bilobalid verringerte außerdem den enormen Anstieg von extrazellulärem Glutamat und das Ausmaß der mitochondrialen Schwellung während MCAO.
In der Altersstudie wurde deutlich, dass sowohl die motorische Aktivität der Tiere als auch einige zelluläre Prozesse wie die mitochondriale Atmung beeinträchtigt sind. Nichtsdestotrotz zeigte Bilobalid auch in gealterten Tieren einen deutlichen protektiven Effekt nach Ischämie.
Das anaplerotisch wirksame Triheptanoin wurde den Mäusen in einer 14-tätigen Fütterungsstudie verabreicht (33 % der Gesamt-Kalorien). Deutliche Schutzeffekte der Triheptanoin-Diät wurden nach Ischämie sowohl in TTC-gefärbten Hirnschnitten als auch in motorischen Verhaltenstests beobachtet. Durch den anaplerotischen Effekt sollte einerseits der Citratcyclus mit Acetyl-CoA und Succinyl-CoA gespeist werden, andererseits könnte Succinat in Komplex II der Atmungskette als direkter Energielieferant dienen. Dieser theoretische Ansatz wurde experimentell bestätigt: Die Fütterung mit Triheptanoin bewirkte eine signifikante Aktivitätssteigerung der mitochondrialen Komplexe II und IV nach MCAO. Die durch Ischämie gesenkten ATP-Spiegel und das Membranpotential wurden durch die anaplerotische Diät ebenfalls deutlich erhöht. Triheptanoin bewirkte zudem eine signifikante Reduktion des extrazellulären Glutamat-Anstiegs wŠhrend der MCAO.
Die Auswirkungen eines Schlaganfalls wurden demnach sowohl durch die prophylaktische Gabe von Bilobalid eine Stunde vor Ischämie als auch durch die 14-tägige Triheptanoin-Diät maßgeblich vermindert. Beide Substanzen zeigten im Mausmodell bemerkenswerte neuroprotektive Effekte und könnten daher auch beim Auftreten eines humanen Schlaganfalls entscheidende Vorteile bringen. Der präventive therapeutische Einsatz von Bilobalid oder Triheptanoin sollte daher in klinischen Studien weiter verfolgt werden.
Auf dem Martberg, einem Bergplateau über dem Unterlauf der Mosel zwischen den Orten Pommern und Karden (Landkreis Cochem-Zell), befand sich nahe einer spätkeltischen Siedlung der Treverer ein gallo-römisches ländliches Heiligtum, eines der bedeutendsten archäologischen Denkmäler im westlichen Mitteleuropa. Seine vollständige Freilegung in den Jahren 1994 bis 2002 ergab neben Erkenntnissen zur Jahrhunderte langen mehrphasigen Baugeschichte des Tempelareals von der Spätlatènezeit bis zum Ende des 4. Jhs. n.Chr. auch eine Fülle an Funden, insbesondere von Münzen, Fibeln, Keramiken und Kleinfunden aus Metall wie Waffen, Amulette, Schmuck, Statuetten und anderes mehr. Viele dieser Funde sind wohl rituell im Tempelbezirk niedergelegt worden, insbesondere für Münzen, Fibeln und Waffen ist dies aus anderen gallo-römischen Heiligtümern bekannt. Weitere Funde wurden möglicherweise während des Betriebs der Tempelanlage verloren, weggeräumt oder kamen bei den häufigen Umbaumaßnahmen in die Erde.
An Hand der Datenbanken der Funde vom Martberg wurde eine systematische Analyse der Fundlagen aller Artefaktgruppen durchgeführt und ihnen mit Hilfe der gut datierbaren Münzen ein zeitliches Gerüst gegeben. Damit konnten die sich im Laufe der Zeit verändernden rituellen Gepflogenheiten anhand der Funde quantifiziert werden. Durch einen Vergleich mit der zeitabhängigen räumlichen Verteilung der Münzen wurden mit Hilfe von Cluster- und Hauptkomponentenanalysen rituell deponierte Artefaktgruppen identifiziert und von nicht rituell deponierten Artefaktgruppen unterschieden. Dazu wurden zunächst die zahlreichen Münzen (über 10.000 Münzen, darunter über 2000 keltische und gallo-römische Münzen) aus archäologischen Befunden im Tempelbezirk und von Lese/Streufunden als Funktion der Zeit vorgestellt beginnend mit den keltischen Münzen aus dem 1. Jh. v.Chr. bis zu den Münzen aus theodosianischer Zeit gegen Ende des 4. Jhs. n.Chr. Dabei wurden auch Besonderheiten unter den Münzen wie Münzen mit Einhieben, Halbierungen/Viertelungen, Imitationen, Gegenstempel, Prägeorte etc. quantitativ erfasst. Die räumlichen Verteilungen der Münzen zeigten deutliche zeitabhängige Unterschiede. Die sich zeitlich und räumlich verändernden kultischen Praktiken verliefen zudem völlig parallel, was die Deponierung von intakten Münzen, Imitationen, Halbierungen und Viertelungen sowie insbesondere Münzen mit Einhieben anging. Im Gegensatz zu den deutlich erkennbaren räumlichen Verschiebungen in den Münzhäufigkeiten bis zur Mitte des 2. Jhs. n.Chr. änderten sich die Verteilungen von Münzen im Tempelbezirk aus den folgenden Jahrhunderten nur wenig.
Diese sich zeitlich verändernden aber gut datierbaren lokalen Fundmünzhäufigkeiten wurden zu einer wenn auch groben Datierung vieler anderer Kleinfundgattungen herangezogen. Mithilfe von statistischen Verfahren (Clusteranalysen bzw. Hauptkomponentenanalysen) konnten zeitliche und räumliche Beziehungen zwischen den einzelnen Fundgattungen identifiziert und teilweise auch datiert werden. Außerdem konnte zwischen absichtlich niedergelegten, geopferten Gegenständen wie Münzen, Schmuck oder Waffenbestandteilen und wohl als Abfall entsorgten Keramik-Waren, Metallteilen oder auch Produkten von Metall-, Keramik- oder anderen Werkstätten unterschieden werden. So waren Lanzenspitzen, keltische Fibeln aus der zweiten Hälfte des 1. Jhs. v.Chr., Statuetten, Spiegel und Phallusamulette ähnlich wie die entsprechenden zeitgleichen keltischen und frühkaiserzeitlichen Münzen verteilt, konnten dadurch auch datiert werden und wurden wohl ähnlich wie die Münzen als Weihegaben deponiert. Frühe keltische Fibeln bildeten zusammen mit Funden aus Blei (Bleiplättchen, Bleibleche, Gussreste) sowie mit Schlacken, Fingerringen und Perlen aus Bronze oder Glas einen eigenen Cluster. Die anderen metallenen Kleinteile waren ähnlich wie die Münzen aus dem 2.-3. Jh. gleichmäßig über das Tempelareal verteilt, wohl weil in dieser Zeit Umbaumaßnahmen zu einer großflächigen Zerstreuung dieser Funde führten. Zusammen mit den Resten der Keramik wurden dabei offensichtlich auch viele metallene Kleinfunde entsorgt, die an Hand der ähnlich verteilten Keramik wiederum zum Teil datiert werden konnten.
Im zweiten Teil der Arbeit wurde versucht, dem Phänomen der sogenannten „claudischen Imitationen“ anhand von Untersuchungen der physikalischen, typologischen und physikochemischen Eigenschaften dieser Münzen sowie von Provenienzstudien des für die Münzen verwendeten Kupfers näher zu kommen. Aus den Ergebnissen von Bleiisotopenanalysen (Massenspektrometrie mit induktiv gekoppeltem Plasma, ICP-MC-MS) an insgesamt 115 claudischen Imitationen ließ sich schließen, dass das Kupfer für die Imitationen mit claudischen und augusteischen Münzbildern ebenso wie die offiziellen claudischen Münzen wohl aus zwei verschiedenen Lagerstätten in Spanien, der Zentralen Iberischen Zone (Kupferminen der Sierra Morena) und aus dem Gebiet des Rio Tinto (Iberischerer Pyrit-Gürtel), stammte. Ob dieses Kupfer (möglicherweise aus verhandelten Barren) direkt zur Herstellung der Imitationen verwendet wurde oder über den Umweg einer Umprägung von offiziellen Münzen, konnte jedoch nur durch eine Analyse der Spurenelementverteilung in den Imitationen selbst im Vergleich zu ähnlichen Messungen an offiziellen Münzen herausgefunden werden. Die Ergebnisse der Spurenelementanalysen (Elektronenstrahlmikrosonde) an über 110 claudischen Imitationen vom Martberg im Vergleich zu früher publizierten Ergebnissen an über 200 offiziellen Kupfermünzen von Augustus bis Claudius haben gezeigt, dass viele der Imitationen mit claudischen Münzbildern sehr stark offiziellen Münzen ähneln, die unter Augustus, Tiberius und Claudius geprägt wurden. Ähnliches gilt für Imitationen mit augusteischen und tiberischen Münzbildern. Etwa ein Drittel der Imitationen enthielten Zink in unterschiedlichen Konzentrationen und unterschieden sich bereits dadurch von den offiziellen Münzen. Man muss aus diesen Ergebnissen den Schluss ziehen, dass die große Mehrheit der Imitationen mit augusteischen oder tiberischen Münzbildern erst in claudischer Zeit aus denselben Münzmetallen wie die Imitationen mit den claudischen Münzbildern hergestellt wurden: aus den in dieser Zeit zur Verfügung stehenden Münzen der vorangehenden Kaiser und/oder den offiziellen Münzen des Claudius.
Da auch an eine Verwendung von Kupfer aus verhandelten Kupferbarren zur Herstellung vieler der Imitationen möglich ist, wurden ähnliche Vergleiche auch mit publizierten Daten von Kupferbarren durchgeführt, die in römischen Schiffswracks im westlichen Mittelmeer gefunden wurden. Die Ergebnisse zeigten, dass für die Herstellung von Imitationen auch die Verwendung von handelsüblichen Kupferbarren denkbar ist.
Im dritten Teil der Arbeit wurde anhand der Münzfunde vom Martberg untersucht, ob Münzen mit bestimmten Rückseitentypen für eine Weihung im sakralen Bereich selektiert oder auch gemieden worden sein könnten. Dazu wurde die Verteilung der Rückseitentypen der auf dem Martberg gefundenen Antoniniane mit Münzreihen verglichen, die in einem zweiten sakralen Kontext, dem Tempelbezirk des Castellberg gefunden wurden, außerdem mit zwei Einzelfundreihen aus zivilen Kontexten und zwei Schatzfunden von Antoninianen. Die sechs Fundkomplexe zeigten eine ähnliche Struktur, da sie aus dem Pool der umlaufenden Münzen zusammengesetzt waren. Die Unterschiede innerhalb der beiden Münzreihen desselben Kontextes waren jedoch erheblich geringer als die zwischen den Münzreihen aus unterschiedlichen Kontexten. Die Ergebnisse einer Hauptkomponentenanalyse zeigten zunächst, dass die beiden Heiligtümer in ganz ähnlicher Weise von der „Referenzkurve“ des Vicus Castellberg abwichen. Die in allen Fundkomplexen am häufigsten vorkommenden Münzbilder Pax, Salus und Spes waren verglichen mit dem Vicus in beiden Heiligtümern deutlich überrepräsentiert. Eine „positive Selektion“ dieser Rückseitentypen, d.h. ihre bewusste Niederlegung, war aber eher unwahrscheinlich. Für die in beiden Heiligtümern unterrepräsentierten Typen wie Laetitia, Fides, Sol, Mars und Jupiter, vielleicht auch Tiere/Fabelwesen, Uberitas und Fortuna war eine bewusste Vermeidung der Niederlegung eher anzunehmen. Neben der eindeutig nachweisbaren Tendenz der Niederlegung von eher geringwertigen Münzen ist davon auszugehen, dass bei der rituellen Niederlegung von Münzen im sakralen Kontext auch die Bilder auf den Rückseiten dieser Münzen eine wie auch immer geartete Rolle gespielt haben müssen. Damit zeigt sich die Funktion der Münzen im rituellen Kontext nicht nur als Wertmesser, als Geld, sondern auch als ein Informationsträger, mit dessen Hilfe möglicherweise auch Zwiesprache mit den Göttern gehalten wurde.
Anführungszeichen als Symptom : zum historischen Bedeutungs- und Funktionswandel einer Zeichenform
(2013)
In diesem Beitrag möchte ich mich mit einer Zeichenform befassen, die auf den ersten Blick unscheinbar und trivial zu sein scheint: den Anführungszeichen, die man salopp auch Gänsefüßchen oder Hasenöhrchen nennt. Für die Historische Semantik und Begriffsgeschichte ist die Bedeutung dieser Zeichen längst erkannt. Wie Martin Wengeler im Anschluss an Ludwig Jäger und Dietrich Busse herausgestellt hat, handelt es sich bei der Verwendung von Anführungszeichen um eine sprachreflexive Äußerung, der insbesondere für die Analyse des politischen Sprachgebrauchs eine Anzeigerfunktion zukommt - wird doch an ihnen eine bewusste Distanzierung von bestimmten Sprachgebräuchen und Wortverwendungsweisen greifbar. Nach Wengeler lösen explizite Wortthematisierungen zumindest ansatzweise das Problem des Auffindens von Belegstellen, die das Auftauchen neuer oder den Plausibilitätsverlust älterer Bedeutungen anzeigen. Mit ihrer Analyse werden Schwellen vom okkasionellen zum usuellen Wortgebrauch sichtbar und die Erfassung des Auftretens semantischer Innovationen stärker objektivierbar. Besonders in den sprachgeschichtlichen Forschungen der Düsseldorfer Schule ist deshalb das Aufsuchen von in Form von Anführungszeichen explizit gemachten Sprachthematisierungen zu einer "zentralen 'Findungsmethode'" gemacht worden. So weit ich sehe ist diese Methode punktuell in Bezug auf die Verwendung einzelner Wörter in Anschlag gebracht worden, was sich mit dem besonderen Interesse am politischen Sprachgebrauch und insbesondere am Einsatz 'brisanter Wörter' begründen lässt. Im Unterschied dazu geht es mir im vorliegenden Beitrag nicht primär um die Analyse einzelner Verwendungen, sondern - auf einer verallgemeinernden Ebene - um die Herausarbeitung eines grundlegenden historischen Bedeutungs- und Funktionswandels des Einsatzes dieser Zeichenform. Im ersten Teil gehe ich kurz auf deren (Vor-)Geschichte ein, um mich dann im zweiten Teil zwei Feldern zuzuwenden, in denen diese Zeichen nicht nur häufig, sondern, worauf es mir ankommt, in einem epistemisch neuen Sinne eingesetzt worden sind, nämlich im Zusammenhang der Auseinandersetzung mit den Folgen der Shoah und der Entwicklung der Atomwaffen. Ausblickhaft möchte ich dann noch die Frage aufwerfen, was es mit der zu beobachtenden Generalisierung der neuen Funktionen der Anführungszeichen auf sich haben könnte.
Fazit: Im Gegensatz zu ihrem US-amerikanischen Vorbild ist die deutsche Business Judgment Rule kein „sicherer Hafen“, der Organmitgliedern das Privileg eines haftungsfreien Raums für unternehmerische Entscheidungen eröffnen würde. §§ 93 Abs. 1 Satz 2, 116 Satz 1 AktG formulieren vielmehr lediglich – mit ihrerseits ausfüllungsbedürftigen Begriffen – die Anforderungen an die Entscheidungsfindung eines ordentlichen und gewissenhaften Geschäftsleiters oder Überwachers. Dementsprechend gelten für Entscheidungen außerhalb des unmittelbaren Anwendungsbereichs der Business Judgment Rule keine grundsätzlich anderen Anforderungen. Bei der Festlegung dieser Voraussetzungen an einen ordnungsgemäße Entscheidung ist zu beachten, dass die organschaftliche Sorgfaltspflicht und die Haftungsfolgen für den Fall ihrer Verletzung sich nicht etwa das Gremium insgesamt, sondern an jedes einzelne seiner Mitglieder richten. Daher sollten insbesondere die Standards an eine angemessene Information und an die Plausibilitätskontrolle eingeholter Auskünfte und Expertisen nicht so hoch angesetzt werden, das sie realistischerweise von niemandem erfüllt werden können.Angesichts des zunehmenden Bewusstseins für die mit einer Organmitgliedschaft verbundenen Haftungsgefahren dürfte es sonst in Zukunft schwieriger werden, qualifizierte Aufsichtsratsmitglieder für deutsche Unternehmen zu gewinnen.
Die Mitteilungspflicht des Legitimationsaktionärs - zugleich Anmerkung zu OLG Köln AG 2012, 599
(2013)
In seinem Urteil vom 6. Juni 2012 hat das Oberlandesgericht Köln entschieden, Legitimationsaktionäre unterlägen im Hinblick auf die Stimmrechte aus den ihnen anvertrauten Namensaktien einer Mitteilungspflicht nach § 21 Abs. 1 WpHG. Die folgende Besprechung kommt nach einer Auseinandersetzung mit den Argumenten des Oberlandesgerichts zu dem Ergebnis, dass eine Mitteilungspflicht von Legitimationsaktionären nur auf Grundlage von § 22 Abs. 1 Nr. 6 WpHG in Betracht kommt.
Interview mit Matthias Fromm: "In Deutschland fehlt es an Grundoffenheit gegenüber Open Science"
(2013)
Matthias Fromm lebt, studiert und arbeitet in Berlin und zu einem nicht geringen Teil im Internet. Beruflich beschäftigt er sich vor allem mit dem Einsatz von Medientechnologien im Bildungssektor und der Kommunikation in den Bereichen IT und Wissenschaft. Privat bloggt und podcastet er neben Wissenschaftskommunikation über verschiedenste andere Themen, seit Januar diesen Jahres betreibt er zum Beispiel das Open Science Radio. Wir sprachen mit ihm über seine Erfahrungen mit dem Wissenschaftsbloggen, Open Science und Wissenschafts-Crowdfunding.
In der Süddeutschen Zeitung tauchte am vergangenen Montag eine wirklich verblüffende Forderung auf. Der Dresdner Rechtsanwalt Thomas Giesen verstieg sich dort zum Ruf nach einem staatlichen Wissensmonopol, analog zur “mühsam erkämpften Errungenschaft” des Monopols auf legitime Gewaltanwendung. Das Netz “als unzensierter Raum,zugänglich für jeden und für alle noch so verdorbenen Inhalte” – mit dieser hippiesken Träumerei sei es doch nun wirklich einmal genug, so der ehemalige sächsische Datenchutzbeauftragte. Doch wohin ein solches staatliches Wissensmonopol führen kann, demonstrierte in diesen Tagen eindrucksvoll die britische Regierung durch die Festsetzung des Lebensgefährten von Enthüllungsjournalist Glenn Greenwald sowie die Zerstörung von Quellenmaterial des Guardian. Die Sicherheitsbehörden wollen also nicht nur alles wissen, sie wollen darüber verfügen, wer was zu wissen hat und auch die Konsequenzen aus diesem Wissen ungestört verfolgen. Damit gebärden sie sich schon jetzt wie ein Monopolist – und entlarven diese sicher gut gemeinte Idee als totalitäre Phantasie.
Sicherheit über alles?
(2013)
Es tut sich etwas in Folge der Snowden-Leaks: In den USA werden Untersuchungsausschüsse eingesetzt, Vorstöße, die Macht der NSA einzuschränken bzw.transparenter zu gestalten werden stärker – vor allem aber wird es wohl institutionelle Änderungen geben. Und diese hängen an einer Person: Keith Alexander.
Der Bundestag hat in seiner gestrigen Plenardebatte theoretisch über Netzneutralität diskutiert. Theoretisch dadurch, dass die Debatte nur als "Reden zu Protokoll" stattfand, weil die Opposition wohl alle Plenardebatten-Kärtchen bereits gezogen hatte und die Regierungskoalition anscheinend kein großes Interesse an einer öffentlichen Debatte hatten. Konkret ging es um einen Gesetzentwurf der Linksfraktion, die Netzneutralität festzuschreiben. ...
Eine "Gestaltungsmacht" stolpert hinterher – Die deutsche Bundesregierung und die Krise in Mali
(2013)
Im November diagnostizierte ich auf diesem Blog, dass sich Deutschland nach Mali ‚geschlichen‘ habe. Gegenstand dieser Kritik war eine doppelte Zurückhaltung: obwohl die deutsche Bundesregierung recht schnell signalisierte, dass sie sich an einer Trainingsmission für das malische Militär beteiligen würde, blieb der tatsächliche deutsche Beitrag nach außen hin vage und der öffentliche Diskurs über eine Mali-Strategie nach innen nicht existent. Seitdem hat sich einiges getan. Frankreich intervenierte militärisch, die Bundeswehr schickte logistische Unterstützung, die deutsche Öffentlichkeit diskutierte ein wenig und der Bundestag mandatierte die Entsendung der Bundeswehr, wenn auch nicht von Kampftruppen. Trotz dieser Entwicklungen hat sich an der Zurückhaltung der Bundesregierung erstaunlich wenig verändert. Wenn schon konkret gehandelt wird, warum wurde nicht auch der deutsche Regierungsdiskurs vernehmbarer und das Handeln der Bundesregierung konkret greifbarer? Wird eine klare außen- und sicherheitspolitische Position nur elitär aber nicht öffentlich diskutiert und, wenn ja, warum? Oder, so die Vermutung im Folgenden: die deutsche Bundesregierung kann aufgrund der politischen Handlungsnotwendigkeiten nicht mehr schleichen, stolpert den Entwicklungen aber hinterher, weil es weiterhin an einem konkreten und konturierten Gestaltungswillen deutscher Entwicklungs-, Außen- und Sicherheitspolitik und an der strategischen Tiefe der Hilfsmaßnahmen fehlt...
Überwachen und speichern
(2013)
Die neuen sozialen Medien demokratisieren die Berichterstattung. Über Ereignisse wird häufig erst bei Twitter, Google+ und Facebook berichtet, bevor es offizielle Informationen von öffentlichen Stellen oder den konventionellen Medien gibt. Doch das heißt auch: Jeder kann Inhalte anders darstellen, verändern und zu eigenen Zwecken nutzen. Und mehr denn je sind wir darauf angewiesen, dass auch solche direkt kommunizierten Inhalte in den richtigen Zusammenhang gestellt werden. Dafür haben wir die ‘alten’, etablierten Medien mit ihren Redaktionen...
Heute findet in Zusammenarbeit mit der Stiftung Wissenschaft und Politik die dritte Jahreskonferenz des Forschungsprojektes ‘Sicherheitskultur im Wandel‘ statt, das, wie auch das Sipoblog, an der Professur für Internationale Organisation von Christopher Daase an der Universität Frankfurt angesiedelt ist. Diskutiert werden auf der Tagung Optionen und Strategien, mit konkurrierenden sicherheitspolitischen Anforderungen umzugehen und unter Bedingungen der Ungewissheit politische Entscheidungen zu treffen. In vier Panels werden Aspekte des sicherheitskulturellen Wandels kurz und prägnant präsentiert, von Experten aus Politik, Wissenschaft und Medien kommentiert und anschließend im Plenum diskutiert...
Unser erster Podcast im Jahr 2013: Wir sprechen mit Juli Zeh, die nicht nur eine profilierte Roman-und Sachbuchautorin ist, sondern die sich als Juristin auch intensiv zu sicherheitspolitische Fragen engagiert. Wir sprechen mit ihr unter anderem über Themen aus ihrem Buch Angriff auf die Freiheit (2009, mit Ilija Trojanow), die Privatsphäre im Internet, biologistische Metaphern in Gefahrenerzählungen, über die Erzählbarkeit von Nicht-Ereignissen, den Wandel der Sicherheitskultur seit dem Kalten Krieg und die Verbesserungsmöglichkeiten demokratischer Sicherheitspolitik.
Eigentlich war für die deutsche Politik der NSA-Spionageskandal ja schon fast erledigt. Doch dann wurde öffentlich, dass Angela Merkels Handy abgehört wurde. Dies resultierte zum Beispiel in verärgerten Anrufen und der Idee eines No-Spy-Abkommen,welches aber inzwischen vom Tisch ist, sowie einer Entschuldigungsabordnung aus den USA, die allerdings einen kalten Empfang in Berlin hatte. Aber nun tut sich auch etwas auf internationaler Ebene: Zusammen mit Brasilien bereitete Deutschland eine Resolution in der UNO Generalversammlung vor, die ein internationales Recht auf Privatsphäre etablieren soll. Inzwischen ist eine,wenn auch abgeschwächte Version, dieser Resolution vom Dritten Komitee verabschiedet worden und wird im Dezember der Generalversammlung vorgelegt. Was bedeutet das für ein mögliches internationales Recht auf Privatsphäre?
Bei Zeit.de findet sich eine Übersicht der Verhandlungsführer für nun beginnenden Koalitionsverhandlungen für eine Große Koalition. Netzpolitik dürfte als Querschnittsthema in mehreren Arbeitsgruppen verhandelt werden. Zuallererst fällt natürlich die Unterarbeitsgruppe Digitale Agenda auf, die der Arbeitsgruppe Kultur zugeordnet ist. Das führte gestern erstmal zu viel Häme auf Twitter, aber diese Zuordnung muss ja erstmal nicht schlecht sein. Viel wichtiger als eine Zuordnung ist ja, wer da was verhandelt. ...
Traue keinem Studenten
(2013)
Für die moderne Universität ist der Studierende an sich vieles: Zentrale Daseinsbegründung, Kostenfaktor, Potenzial, billige Arbeitskraft und seit einigen Jahren in offizieller Sprache auch Kunde. Nun kommt scheinbar eine weitere Facette des Studierenden dazu: das Sicherheitsrisiko.
Versicherheitlichung findet heute in vielen Lebensbereichen statt. Dem Terrorismus wird der Krieg erklärt, ebenso den Drogen oder der Armut. Diese martialische Sprache geht einher mit institutionellen Auswirkungen – wer etwas als ein bedrohliches Problem definiert, reagiert anders als jemand, der es nur als von der normalen Politik zu lösendes Problem betrachtet. Nun haben Studierende es auch in diesen illustren Kreis geschafft – nur nicht aus Sicht des Staates, sondern aus Sicht der Universität und ihrer Abläufe...
Die Koalition hat sich gestern über einen letzten Kompromiss zum Leistungsschutzrecht geeinigt, der heute im federführenden Rechtsausschuss abgestimmt werden soll. Geplant ist, diesen am Freitag nach zweiter und dritter Lesung im Bundestag abzustimmen. Dagegen wehrte sich die Opposition und forderte heute im Rechtsausschuss eine weitere Anhörung, um die veränderten Rahmenbedingungen diskutieren zu können. Das wurde aber mit der Mehrheit der Koalition abgelehnt. ...
“Ohne sie würde der Kampf gegen den islamistischen Terrorismus eines Werkzeugs von ganz entscheidender Wirkung beraubt”. Sie, das ist die Antiterrordatei, die Ende 2006 in Kraft trat und deren Bedeutung Innenminister Friedrich hier betont. Zur “Aufklärung oder Bekämpfung des internationalen Terrorismus mit Bezug zur Bundesrepublik Deutschland” soll sie dienen, die “gemeinsame standardisierte zentrale Antiterrordatei” von 30 bis 40 verschiedenen deutschen Sicherheitsbehörden (auch solcher, die eigentlich nicht mit Terrorabwehr befasst sind). Datenschützer sowie das Verfassungsgericht in Karlsruhe sehen rechtliche sowie eine Reihe von weiteren Problemen bei der Verbunddatei. Was ist sie also, und welche Funktion wiegt schwerer: Effektives Antiterror-Instrument oder Vermischung der strukturellen Grenze zwischen Polizei und Geheimdiensten?...
Die vorliegende Arbeit befasst sich mit der gegenwärtigen Situation der indigenen Bevölkerung in den Vereinigten Staaten von Amerika. Dort erleben viele Indianerstämme in jüngster Zeit einen nie dagewesenen wirtschaftlichen Aufschwung, der ihre bis dato äußerst ärmlichen Lebensverhältnisse grundlegend verbessert. Vor etwas mehr als zwei Jahrzehnten trat ein Gesetz in Kraft, das es den Stämmen gestattete, relativ unbehindert von einzelstaatlichen Restriktionen und Steuerbelastungen innerhalb ihrer Reservationsgebiete Glücksspiele für nichtindianische Besucher zu veranstalten. Seither haben sowohl Anzahl wie auch Gewinne der stammeseigenen Spielbetriebe in einem Maße zugenommen, das alle anfänglichen Erwartungen längst übertroffen hat. Tribal Gaming (oft auch Indian Gaming) ist zwar ein noch relativ rezentes Phänomen, doch es kann bereits jetzt festgestellt werden, dass es seit dem Beginn der europäischen Dominanz in Nordamerika keine Wirtschaftsstrategie gegeben hat, aus der so viele Indianerstämme gleichzeitig einen derart großen finanziellen Nutzen ziehen konnten. Für viele – wenn auch bei weitem nicht für alle – Indianerstämme ist das Kasino oder die Bingohalle inzwischen zur Haupteinnahmequelle geworden.
Die Untersuchung konzentriert sich auf die Auswirkungen dieses fundamentalen Wandels auf die indianischen Gemeinschaften insbesondere unter dem Gesichtspunkt der kulturellen und gesellschaftlichen Erneuerung und im weiteren Kontext auch auf ihre veränderte Rolle als Akteure im politischen System der USA. Im Mittelpunkt stehen also weniger die wirtschaftlichen Aspekte, als vielmehr die Frage, welchen Beitrag die stammeseigenen Glücksspielunternehmen als Instrument zur kulturellen, gesellschaftlichen und politischen Revitalisierung der indigenen Gesellschaften leisten können...
Eine empirische Arbeit, auf Basis der teilnehmenden Beobachtung nach Malinowski, bei Dealern im bürgerlichen Milieu. Der Fokus liegt auf einer ethnologischen Herangehensweise; d.h., dass am Leben der Dealer weitestgehend und möglichst vorurteilsfrei teilgenommen wird. Hieraus ergeben sich Einblicke, die mit anderen Forschungsmethoden nicht möglich sind.
Das CEDEFOP koordiniert ab dem 1. Januar 2008 bis 2013 im Auftrag der Kommission die Studienbesuche für Bildungs- und Berufsbildungsfachleute und Entscheidungsträger. Ein Studienbesuch verläuft folgendermaßen: eine kleine Gruppe von Experten und Entscheidungsträgern, die verschiedene Bildungs- und Berufsbildungsgruppen vertreten, besuchen drei bis fünf Tage einen Mitgliedstaat der EU, um dort einen bestimmten Aspekt des lebenslangen Lernens zu untersuchen.
Liveblog München, 3. Februar
(2013)
Live von der Münchner Sicherheitskonferenz bloggen hier Christopher Daase, Tobias Bunde, Thomas Mohr und Ingo Henneberg und von der Friedenskonferenz Hans Georg Klee und das SiPoBlog–Team. Weitere Informationen gibt es hier. Die Kommentarfunktion ist natürlich zusätzlich geöffnet für alle.
Die Sicherheitskonferenz beginnt wieder um 9h mit einer Session zu aktuellen Krisen (Mali, Syrien). Bei der Friedenskonferenz ist um 11.30h das Friedensgebet angesetzt.
Liveblog München, 2. Februar
(2013)
Liveblog München, 1. Februar
(2013)
Live von der Münchner Sicherheitskonferenz bloggen hier Christopher Daase, Tobias Bunde, Thomas Mohr und Ingo Henneberg und von der Friedenskonferenz Hans Georg Klee und euer SiPo-Team. Weitere Informationen gibt es hier. Die Kommentarfunktion ist natürlich weiterhin offen.Die Sicherheitskonferenz wird um 15h eröffnet, erste Eindrücke unten.
Das Internet ist ja per definitionem ein eher unordentlicher Ort. Das finden alle genau dann gut, wenn sich 14jährige Mädchen in Pakistan dadurch ausdrücken und emanzipieren können (auch wenn sich hinter einer solchen internet persona gerne mal ein alter weißer Mann verbirgt). Eher schlecht findet man es dagagen, wenn sich auch Fundamentalisten jeglicher couleur diese Freiheit im Netz zunutze machen. Da wollen die Innen- und Familienminister dieser Welt gleich regulieren, überwachen und strafen, doch… siehe oben. Zwischen diesen beiden Extrempolen pendeln sich die meisten Debatten über das Für und Wider der Internetnutzung ein. Auch in der Geisteswissenschaft – und dies hieß im konkreten Fall überwiegend: der Geschichtswissenschaft, wie wir auf einer Tagung in München feststellen konnten...
Humanitäre Interventionen sind seit den neunziger Jahren wiederkehrend im Fokus öffentlicher wie wissenschaftlicher Debatten. Erklärungen, warum sich Staaten entschließen, unabhängig von geopolitischen Interessen humanitäre Interventionen zu fordern oder sich an ihnen zu beteiligen, bleiben nach wie vor umstritten. Geteilte Moralvorstellungen und die Bereitstellung eines Handlungsrahmens für die Umsetzungspraxis sind zwei zentrale Analysedimensionen einer internationalen, humanitäre Interventionen befördernden Sicherheitskultur. Eine Normentwicklung kann in diesem Sinne nur in der Kombination mit tatsächlicher Akteurspraxis und medial-öffentlicher Aufmerksamkeit verstanden und beurteilt werden.
Im Rahmen eines umfangreichen Projekts zu Übersetzungsmöglichkeiten der deutschen Modalverben ins Portugiesische – und nachdem wir schon den Fall sollen behandelt haben (siehe Hörster/Athayde/Carecho 2011) – stellen wir in dieser Studie einige wesentliche Ergebnisse unserer Untersuchung bezüglich des Modalverbs müssen dar. Ziel unserer Arbeit war nicht die semantische und pragmatische Beschreibung der einzelnen Modalverben, ein Thema, das immer wieder im Mittelpunkt der wissenschaftlichen Diskussion steht. Vielmehr war es unsere Absicht, einen Beitrag zur zweisprachigen Lexikografie, zur Fremdsprachendidaktik und vor allem zur Übersetzungsdidaktik zu leisten.
In der Benjaminforschung hat der Name Ernst Schoen einen guten, wenn auch nur einen marginalen Klang. Schoen, der zwei Jahre jüngere Schulfreund Walter Benjamins, der distanzierte Beobachter in jugendbewegter Zeit, Mitspieler in der erotisch aufgeladenen Atmosphäre wechselnder Freundschaften und später der wichtige Mann beim Rundfunk – damit ist auch schon die Rolle, die er in diesem Forschungszusammenhang bisher spielte, umrissen. Dass er Komponist und Schriftsteller war, wird seinem Namen zwar gern erklärend hinzugefügt, aber selten hat jemand etwas von ihm gelesen, geschweige denn eine Komposition gehört. Noch weniger bekannt ist, dass er am Ende verletzt und resigniert zu jenen Heimgekehrten gehörte, deren Remigration als gescheiter t angesehen werden muss.
Es wird allgemein vermutet, dass Klassenfahrten bei den Schülern nachhaltige Veränderungen bewirken können und nur wenige empirische Befunde belegen die Wirksamkeit von Klassenfahrten. Diese defizitäre Forschungslage aufgreifend, beschäftigt sich die vorliegende Arbeit mit der sozial-integrativen Wirkung einer sportbezogenen Klassenfahrt (Skifahrt) auf empirischer Grundlage.
Mit Hilfe der Desintegrationstheorie von Anhut & Heitmeyer (2000) lässt sich das Konstrukt „Integration“ in allgemeinerer Form über das antinomische Begriffspaar „Anerkennung vs. Ablehnung“ operationalisieren, wobei zwischen positionaler, moralischer und emotionaler Anerkennung bzw. Ablehnung unterschieden werden kann. Neben individuellen Merkmalen erfolgt die Vergabe und Verweigerung von Anerkennung über kollektive Merkmale, die auf Zugehörigkeit zu einer Gruppe beruht. Im pädagogischen Kontext der Schulklasse ist daher von besonderem Interesse, wie sich die Anerkennungsverhältnisse zwischen Gruppen verändern, denen besondere Potenziale für heterogenitätsbedingte Ablehnung zugeschrieben wird (vgl. Gerecke, 2010). Hypothetisch sind dies Mädchen „vs.“ Jungen, Jugendliche mit „vs.“ Jugendliche ohne Migrationshintergrund und bezüglich Klassenfahrten die Gruppe der Schüler, die nicht teilnehmen konnten „vs.“ der Gruppe derer, die teilgenommen haben. Auf dieser Grundlage beschäftigt sich die vorliegende Arbeit mit den Effekten sportbezogenen Klassenfahrten auf die soziale Integration operationalisiert in Anerkennungsverhältnissen.
Mittels eines soziometrischen Wahlverfahrens wurden die Anerkennungs- und Ablehnungsverhältnisse von vier Schulklassen (N=95) zu drei Messzeitpunkten (Eingangs-, Ausgangs- und Behaltenstest nach sechs Wochen) computergestützt erhoben.
Die Betrachtung der Gesamtgruppe zeigt eine Steigerung der positiven Wahlen (eta²=0,210) bei einer gleichzeitigen Reduktion der negativen Wahlen (eta²=0,167). Diese Entwicklung ist über Post-hoc-Einzelvergleiche auf eine signifikante Veränderung innerhalb des Treatmentzeitraumes (ET AT) zurückzuführen. Das Intervall AT-BT nach Abschluss der Klassenfahrt ist nicht signifikant, so dass auf eine zeitliche Stabilität der Ergebnisse geschlossen werden kann. Allerdings sind große Unterschiede zwischen den einzelnen Klassen festzustellen, die nicht teilweise nicht mit dem Gesamtergebnis übereinstimmen. In der differenzierten Betrachtung der heterogenitätsbedingten Unterschiede ist in erster Linie ein Geschlechtereffekt zu erkennen. Insbesondere die positiven und negativen Wahlen zwischen Schülern verschiedenen Geschlechts verändern sich signifikant. Aber auch hier zeigen sie die bereits dargestellten klassenspezifischen Differenzen.
Während der Teilnahmestatus keinen Einfluss auf die Vergabe von negativen und positiven Wahlen besitzt, beeinflusst der Migrationsstatus hingegen die positiven Wahlen signifikant.
Mit Blick auf die theoretischen Grundlagen dieser Arbeit kann der Anstieg der positiven Wahlen als Zuwachs von Anerkennung und der Rückgang negativer Wahlen als eine Reduktion von Ablehnung interpretiert werden, wobei sich kein einheitliches Bild auf Klassenebene ergibt.
Anhut, R. & Heitmeyer, W. (2000). Desintegration, Konflikt und Ethnisierung. Eine Problemanalyse und theoretische Rahmenkonzeption. In W. Heitmeyer (Hrsg.), Bedrohte Stadtgesellschaft. Soziale Desintegrationsprozesse und ethnisch-kulturelle Konfliktkonstellationen (S. 17–73). Weinheim: Juventa-Verlag.
Gerecke, P. (2010). Heterogenitätsbedingte Unterschiede zwischen Ingroup- und Outgroup-Anerkennung bzw. -Ablehnung im Sportunterricht. Eine empirische Studie zum integrativen Einfluss des Kooperativen Lernens. Dissertation. Frankfurt am Main: Johann-Wolfgang Goethe Universität.
Durch RNAinterferenz (RNAi) läßt sich die Expression eines beliebigen Gens spezifisch unterdrücken. Dafür müssen in das Zytoplasma kurze, doppelsträngige RNA Moleküle (siRNA bzw. shRNA) eingebracht werden, die teilweise komplementäre Sequenzen zu dem Zielgen aufweisen. Um siRNAs mit einer hohen Effizienz und Kopienzahl in die Zielzelle einzubringen, wurden Transfersysteme unterschiedlicher Art entwickelt. Nicht-virale Transfersysteme können nur einen transienten Effekt auslösen - ein Umstand, der für Langzeitstudien eine mehrfache Transfektion bedingt. Zur Lösung dieses Problems wurden retrovirale Vektorsysteme entwickelt, die durch Integration der shRNA-Expressionskassette in das zelluläre Genom eine stabile Unterdrückung eines Zielgens erreichen können. Insbesondere für präklinische Studien in vivo ist jedoch ein System mit erhöhter Transferrate wünschenswert, um in möglichst vielen Zielzellen einen RNAi-Effekt zu bewirken. Sliva et al. konnten zeigen, dass das Murine Leukämie Virus (MLV) theoretisch diese Anforderung erfüllt. Dafür wurde eine shRNA-Expressionskassette in das Virusgenom eingefügt und in vitro ein RNAi-Effekt nachgewiesen. In der vorliegenden Arbeit wurde dieses System nun durch die Verwendung von microRNA-adaptierten shRNAs (shRNAmir) verbessert. In mehreren Publikationen wurde bestätigt, dass shRNAs, die endogenen microRNAs nachempfunden sind, eine höhere Effizienz und niedrigere Toxizität aufweisen. Zunächst wurde die für die genetische Stabilität optimale Orientierung der shRNAmir-Expressionskassette bestimmt. Das Konstrukt in reverser Orientierung wies eine Deletion in der shRNAmir Promotersequenz auf, die wahrscheinlich durch Interferenz mit dem 5’LTR Promoter entstanden ist. Mit dem genetisch stabilen Viruskonstrukt wurden Experimente zur Reduktion der Expression von Markergenen durchgeführt, um die Effizienz der RNAi-Aktivität leicht zu quantifizieren. Dafür wurden humane Fibrosarkom (HT1080) Zellen infiziert, die eGFP oder Luziferase stabil exprimieren.
Mit eGFP- und Luziferase-spezifischen shRNAmir-Expressionskassetten konnte nach Infektion eine Herunterregulation von eGFP auf etwa 20 % und für Luziferase auf unter 10% beobachtet werden. Das Kontrollvirus, das eine unspezifische shRNAmir kodiert, hatte keinen Einfluss auf die Expression beider Markerproteine. Die Kinetik mit der die Markerproteine herrunterreguliert wurden, war abhängig von der Virusdosis. Die Virusdosis hatte aber keinen Einfluß auf die Stärke des RNAi-Effekts, der nach Infektion aller Zellen festgestellt werden konnte. Dieses Ergebnis entspricht der Erwartung an ein replikatives Transfersystems, das je nach applizierter Virusdosis unterschiedlich schnell RNAi in der Zellkultur ausbreitet und induziert. Die Anwendbarkeit dieses RNAi-Transfersystems auch für endogene Gene wurde mit MMP14-spezifischen shRNAmirs gezeigt. Nach Infektion von HT1080 Zellen mit den entsprechenden Viren in HT1080 Zellen konnte eine verringerte Menge an MMP14 mRNA und Protein nachgewiesen werden. Dies konnte funktionell durch eine verringerte Menge an intermediärem MMP2 und durch eine reduzierte Invasivität bestätigt werden. Zudem war die Fähigkeit dieser Zellen subkutane Tumore zu bilden stark eingeschränkt.
Um die Anwendbarkeit dieses Systems für in vivo Applikationen zu zeigen, wurde in Mäuse, die Luziferase-exprimierenden Tumoren trugen, MLV-shLuc oder das Kontrollvirus systemisch appliziert. 21 Tage nach Virusgabe konnte in den Tumoren von MLV-shLuc infizierten Mäusen eine Abnahme der Luziferaseaktivität auf 15 % nachgewiesen werden. Auch in Mäusen, die systemisch applizierte Tumorzellen erhielten, konnte eine Tendenz von RNAi-vermittelter Luziferase-Reduktion beobachtet werden.
Damit wurde in dieser Arbeit ein neuartiges RNAi-Transfersystem geschaffen, das in der Lage ist, auch in vivo einen starken und lang andauernden RNAi-Effekt auszulösen. Die Einzigartigkeit besteht in der Kombination von shRNAmir und Replikations-kompetenten Retroviren. Dadurch konnte eine erweiterte Transferrate von shRNAmir in Tumorzellen erreicht werden, so dass nun Genfunktionsstudien mit sehr hoher Aussagekraft möglich sind.
Weimarer Beiträge 59/2013
(2013)
Die Weimarer Beiträge sind eine Zeitschrift für Literaturwissenschaft, aktuelle ästhetische Theorie und Kulturwissenschaft. Zu Ihren Schwerpunkten gehören moderne Literatur im Rahmen anderer Künste und Medien, die Wechselbeziehungen von Literatur, philosophischer und ästhetischer Reflexion sowie die kritische Analyse der Gegenwartskultur.
Diese Arbeit entstand im Rahmen eines größeren Forschungsprojektes zum Thema Bewältigung von Lebensenttäuschungen, initiiert von Prof. Dr. Siegfried Preiser am Institut für Psychologie der Universität Frankfurt am Main. In diesem Kontext wurde die vorliegende Studie entwickelt.
Ausgehend von interpersonalem Engagement wurden mögliche Verknüpfungen von Einflussfaktoren im Umgang mit unterschiedlichen kritischen Lebenssituationen und der sich daraus ergebenden Konsequenzen auf psychische und physische Gesundheit, d.h. persönliches Wohlbefinden untersucht. Das Konstrukt Wohlbefinden wurde in dieser Studie als eine latente Variable gebildet, die sich aus einer Konstellation von bereichsspezifischen und allgemeinen Lebenszufriedenheitsfaktoren, dem seelischen Gesundheitsempfinden und – mit negativem Gewicht - dem aktuellen Belastungsempfinden zusammensetzt.
Außer der Erfassung der Partizipation an sozialen Gemeinschaften bzw. des sozialen Engagements wurden intrapsychische, motivationale, biographische und soziale Faktoren erfasst sowie religiöse Aspekte einbezogen. Zielgruppen der Untersuchung waren Gruppierungen vorwiegend aus dem Selbsthilfebereich.
Zur Beachtung der Zeitperspektive war die Befragung als Längsschnittstudie in Form einer Zweifachmessung konzipiert.
Erhoben und untersucht wurden im einzelnen Belastungs-, Persönlichkeits-, Gesundheits- und Zufriedenheitsfaktoren, des Weiteren die Aspekte des sozialen Kontextes mit Differenzierung der Ebenen von sozialer Unterstützung sowie religiöse Aspekte als angenommene Einflussfaktoren auf Lebenszufriedenheit und persönliches Wohlbefinden.
Zusammenfassend hatten die Persönlichkeitsfaktoren Flexibilität und Selbstwirksamkeit den größten positiven Einfluss auf Wohlbefinden. Bzgl. des sozialen Engagements zeigte sich dagegen kein signifikanter Einfluss.
Neben den Variablen Flexibilität und Selbstwirksamkeit stellte sich die wahrgenommene Unterstützung als bedeutsamster Einflussfaktor auf das Wohlbefinden heraus.
Religiöse Vorstellungen konnten nach ihrer persönlichen positiven oder negativen Grundhaltung gegenüber Gott bzw. einer höheren Wirklichkeit differenziert werden. Eine positive religiöse Grundhaltung ist geprägt von der Vorstellung eines schützenden, fürsorglichen und hilfreichen Gottes. Ein negatives Gottesbild beinhaltet die Vorstellung eines bedrohlichen und strafenden Gottes. Nur für diese Betrachtungsweise konnten eindeutige - und zwar negative - Einflüsse auf das Wohlbefinden ermittelt werden
Inhaltlich gliedert sich die Arbeit in vier Blöcke:
In Kapitel 1 werden theoretische Grundlagen und untersuchungsrelevante Konzepte näher erläutert und daraus die konkreten Fragestellungen einschließlich der Hypothesen entwickelt.
In Kapitel 2 schließt sich der methodische Teil mit den Beschreibungen der Stichprobe, der Erhebungsinstrumente und des Untersuchungsverlaufes an.
Kapitel 3 enthält die Ergebnisse und deren Diskussion. Kapitel 4 beinhaltet ein Resümee und Ausblick. In Kapitel 5 befindet sich die für diese Arbeit verwendete Literatur, woran sich der Anhang anschließt. Der Anhang besteht zum einen aus weitergehenden Informationen und Erläuterungen, die Durchführung und Auswertung betreffend (Anhang I). Anhang II, der der Druckversion als CD beiliegt, listet zum anderen die Originalantworten der Probanden in strukturierter Form auf.
In vier aufeinander aufbauenden Studien wird den Fragen nachgegangen „Was sind Nicht-Ereignisse?“ und „Welche Verarbeitungshilfen sind effektiv für den Bewältigungsprozess?“. Am Beispiel der ungewollten Kinderlosigkeit wird aus gesundheitspsychologischer Sicht nach zwei Aspekten von psychosozialem Wohlbefinden gefragt: „globaler Lebenszufriedenheit“ und „negativen Emotionen“ (z.B. Scham und Schmerz).
Es werden Bewältigungsstrategien und Bewältigungsstile unterschieden. Die Bewältigungsstile „religiöses Coping“ sowie „hartnäckige Zielverfolgung“ und „flexible Zielanpassung“ werden als andauernde Einflussfaktoren im Bewältigungsprozess betrachtet. Die entwickelten Bewältigungsstrategien „planendes Problemlösen“, „Unterstützung durch Freunde“, „regenerative Strategien“ und „kognitive Umdeutung zur Akzeptanz“ sind erlernbare Vorgehensweisen.
In der Pilotstudie 1 wurden 22 Menschen interviewt, die sich im Nicht-Ereignis-Prozess befinden. In Studie 2 wurden qualitativ und quantitativ 76 Männer und Frauen mit ungewollter Kinderlosigkeit befragt. Studie 3 erhob online mit 216 Teilnehmern die Häufigkeit und eingeschätzte Effektivität von Verarbeitungshilfen. Studie 4 erfasste zu zwei Messzeitpunkten (n = 732, n = 409) vier Bewältigungsstrategien, vier Bewältigungsstile, „globale Lebenszufriedenheit“, „negative Emotionen“ und kinderwunschspezifische Antworten von Menschen mit Kinderwunsch.
Für eine gewünschte Schwangerschaft kann geschlussfolgert werden, dass ein bedeutsamer Prädiktor für die Eintrittswahrscheinlichkeit im frühen Prozess fertility awareness ist. Das Alter der Frau dagegen leistet keinen Beitrag zur Vorhersage. Die Prädiktoren „negatives religiöses Coping“ und „planendes Problemlösen“ im fortgeschrittenen Nicht-Ereignis-Prozess stellen Risikofaktoren für das psychosoziale Wohlbefinden dar. Die Schutzfaktoren „Unterstützung durch Freunde“, „kognitive Umdeutung zur Akzeptanz“ und „flexible Zielanpassung“ sind signifikante Prädiktoren für psychosoziales Wohlbefinden. Interaktionseffekte von „Flexibler Zielanpassung“ und „Hartnäckiger Zielverfolgung“ konnten nicht identifiziert werden.
Kompetenzen bezeichnen „erlernbare kontextspezifische Leistungsdispositionen, die sich funktional auf Situationen und Anforderungen in bestimmten Domänen beziehen“ (Klieme & Hartig, 2007, S. 17). Für den Bereich der Lehrerbildung wurden durch die Kultusministerkonferenz (2004) Standards für die Lehrerbildung: Bildungswissenschaften formuliert, die als Explikation professioneller pädagogischer Kompetenzen gelten können. Durch die Formulierung dieser Standards sieht sich die Lehrerbildung mit der Aufgabe konfrontiert, Studierende des Lehramts so auszubilden, dass die resultierenden Kompetenzen den genannten Standards genügen. Dies impliziert eine standard- und somit kompetenzorientierte Evaluation der Lehrerbildung. Bislang wird eine Evaluation der Lehrerbildung jedoch meist durch Selbsteinschätzungsverfahren umgesetzt – eine Methodik, die im Bereich der Kompetenzdiagnostik kritisch diskutiert wird (z. B. Nerdinger et al, 2008).
Der Situational Judgement Test als kompetenzdiagnostisches Instrumentarium weist die Vorteile situationsorientierter Verfahren auf und kann zusätzlich aufgrund der schriftlichen Darbietung problemlos auf große Stichproben angewandt werden. In der vorliegenden Studie wurde ein solcher Test entwickelt, um die professionelle pädagogische Kompetenz Lehramtsstudierender kontextnah und ökonomisch erfassen zu können. Die Studie hatte zum Ziel, den entwickelten standardorientierten Situational Judgement Test anhand verschiedener Außenkriterien konvergent und diskriminant zu validieren. Hierbei wurden konvergente Validitätsnachweise lediglich teilweise signifikant, wobei diskriminante Validitätsnachweise anhand des Studienfachs (Lehramtsstudium vs. Studium technisch-naturwissenschaftlicher Fächer) deutliche Signifikanzen und Effektstärken zeigten.
Are books different? : Die Auswirkungen des Falls der Buchpreisbindung in Großbritannien 1995 - 2006
(2013)
Sicherlich gibt es im Buchhandel wie in jeder anderen Branche Zeiten der Krise und des Umsatzrückgangs, aber grundsätzlich legen die Zahlen nicht nah, dass das Ende bevorsteht. Es stellt sich also die Frage, ob zutrifft, was Richter Buckley in seinem zum geflügelten Wort gewordenen Urteil feststellte: Sind Bücher wirklich anders, oder anders gefragt, braucht der Buchhandel den Schutz des Staates, um seine Funktion erfüllen zu können?
Um eine Antwort auf diese Fragen zu finden, soll in dieser Arbeit das Hauptaugenmerk auf die Entwicklung des britischen Buchhandels im Zeitraum von 1995 (dem Jahr der faktischen Abschaffung des Net Book Agreement bis 2006 gelegt werden. Nach dem beinahe hundertjährigen Bestehen der Buchpreisbindung waren diese Jahre richtungweisend für die Neuorientierung des britischen Buchhandels auf die Bedingungen eines freien Marktes, und es soll untersucht werden, welche Umwälzungen sich daraus für die Branche ergeben haben.
Dieser Aufsatz führt in Grundbegriffe der deutschen Intonation ein und diskutiert ihre Relevanz für den Unterricht des Deutschen als Fremdsprache, vor allem in Brasilien. Für Muttersprachler des Portugiesischen, die Deutsch lernen, ist die Intonation wahrscheinlich eine größere Herausforderung als die Phonetik der Einzellaute. Das System der Töne, Tonbewegungen und Äußerungsakzente sowie ihre Beiträge zur Äußerungsbedeutung werden am Beispiel von Aussage- und Fragesätzen dargestellt. Den Abschluss bilden konkrete Übungsvorschläge zur Intonation im DaF-Unterricht.
Der Aufsatz gibt einen Überblick über die Arten von Nebensätzen im Deutschen. Er beschreibt ihre syntaktischen Funktionen und Strukturen anhand des Felderschemas. Auf drei Gesichtspunkte wird detaillierter eingegangen: nebensatzspezifische Funktionen von (i) Pronomina und (ii) Vergleichspartikeln sowie (iii) die Rolle von Nebensätzen bei der Satzspaltung. Der Aufsatz kann im Universitätsunterricht und als Grundlage für Untersuchungen in vergleichender Syntax genutzt werden.
Wem es an eigener Erfahrung oder Anschauung mangelt, der kann sich u.a. von Theweleit darüber belehren lassen, dass beim Fußball viel gelitten wird. Auch der Fan ist alles andere als ein 'standhafter Zuschauer ästhetischer Leiden', denn er leidet wahrhaftig und sozusagen leibhaft mit. Darin ist und bleibt, mit Verlaub, auch der moderne Fußball ein so archaisches Phänomen wie, sagen wir, die sophokleische Tragödie, in der auch viel gelitten wird und die auch keine Zuschauer, sondern ausschließlich Ritualteilnehmer kennt. Mit dem Leidensbegriff, den die moderne Kultur ausgebildet hat, hat der Fußball nichts zu tun, eher schon fungiert er als Gegengift für Kulturleidende. Man kann sich kaum vorstellen, dass Adorno von diesem Mittel Gebrauch gemacht haben sollte. O-Ton Youtube: "[M]an muß […] daran erinnern, daß die Menschen, die also auf dem Sportfeld zuschauen und zwar in allen Ländern […], gegen die Fremdgruppe, also gegen das ausländische Team, sich in einer Weise benehmen, die den einfachsten Anforderungen der Gastfreundschaft [...] aufs Krasseste widerspricht." Nun ja; Adorno war eben Theoretiker von "Gruppenverhalten" und als Fußball-Fan ist er so schwer vorstellbar wie als Spieler. Oder doch? Gibt es vielleicht auch bei ihm Rudimente eines Fan-Begehrens, die nicht in der Analyse von Gruppenverhalten aufgehen und theorieimmanente Selbst-Widerstände artikulieren? Dagegen spricht vorläufig die übermächtige Tradition des Leidens an der Kultur, der Adorno ganz ohne Zweifel verhaftet ist, eben weil er ihr Fan nicht sein konnte oder wollte.
Pseudomorphose
(2013)
Der Sprachgebrauch verleitet dazu, Pseudomorphosen als bloß täuschenden Anschein jenes Gestaltwandels zu verstehen, der sich in (echten) Metamorphosen vollzieht. Dort tut sich tatsächlich etwas, aber die Pseudomorphose tut nur so, als ob. Allerdings zeigt schon die echte Metamorphose, der das Christentum nach Blumenberg den Garaus macht, auch beim alten Heiden Goethe noch oder schon pseudomorphotische Züge. Wenn alles Blatt ist, darf man legitimerweise fragen, ob da überhaupt etwas metamorphorisiert. Als Metapher geht die Pseudomorphose auf Oswald Spengler zurück, der sie der für historische Sedimentierungs- und Verwerfungsprozesse seit dem 19. Jahrhundert so ertragreichen Mineralogie entlehnt hat.
In ihrem Beitrag geht Karin Harrasser unter dem Titel "Treue zum Problem" der Frage nach, ob und wie sich das Konzept des situierten Wissens von Donna Haraway mit dem Konzept der Kosmopolitik von Isabelle Stengers verbinden lasse. Treue zum Problem wird dabei zum Begriff für eine Erkenntnishaltung, in der theoretische und wissenschaftliche Problemstellungen aus konkreten Anlässen und Situationen generiert werden. Wie man sich das konkret vorzustellen hat, führt Harrasser am Beispiel des Films von Werner Herzog vor: "Wo die grünen Ameisen träumen".
Es ist keine sehr originelle Einsicht, dass die grundlegend neuen Perspektiven auf die Kunst des 20. Jahrhunderts, die Walter Benjamin in seinem Aufsatz über "Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit" skizziert hat, am Paradigma der visuellen Künste gewonnen wurden. Das lässt sich exemplarisch am Begriff der Aura demonstrieren, der für Benjamins Theorie des traditionellen Kunstwerks von zentraler Bedeutung ist. Allein das Bild, das als Unikat durch die Räume und Zeiten wandert und sich dabei mit historischer Substanz sättigt, ist Träger der Aura. [...]
Es liegt auf der Hand, dass es die Aura [...] bei akustischen Kunstwerken nicht geben kann. Musik und Theater bieten kein Identisches, das sich materiell in der Geschichte durchhält wie ein Bild und in diesem spezifischen Sinne traditionsstiftend wirkte. Wir haben bloß den Text als ein unvollständiges Gerüst, das von Aufführung zu Aufführung neu aktualisiert wird. Zwar gibt es zweifellos und gerade in der akustischen Kunst eine besondere Emphase auf dem "Hier und Jetzt" (475), von dem Benjamin im Zusammenhang des traditionellen Kunstwerks redet, aber dieses Hier und Jetzt ist grundlegend anders zur Geschichte vermittelt als das beim bildenden Kunstwerk der Fall ist. Der Begriff des Unikats, den Benjamin letztlich aus dem Kultbild herleitet (480 f.), ergibt bei der Musik (und in gewissem Sinne auch in der Literatur) von vornherein keinen Sinn. Was bedeuten 'Nähe' und 'Ferne' im Falle der Musik und der musikalischen Reproduktion? Wenn der Begriff der Aura hier überhaupt eine systematische Stelle hat, dann muss er anders gefasst und positioniert werden als in der bildenden Kunst.
Friedrich Flick zählt zweifellos zu den umstrittensten Protagonisten der deutschen Wirtschafts- und Unternehmensgeschichte des 20. Jahrhunderts – und mittlerweile auch zu den am besten erforschten. Zwischen 2004 und 2008 erschienen gleich vier teilweise recht umfangreiche Arbeiten zur Konzern- und zur Familiengeschichte. Was macht diesen Mann für Geschichtswissenschaft und politisch interessierte Öffentlichkeit so interessant? Ein kühner Unternehmensgründer vom Schlage eines Thyssen oder Siemens – das machen die vier Autoren gleich in der Einleitung deutlich – war er jedenfalls nicht, auch kein genialer Erfinder oder sozialpolitischer Pionier. Sein Name sei vielmehr zum "Synonym für politischen Opportunismus und den skrupellosen Einsatz wirtschaftlicher Macht geworden" (S. 8). Einen gewissermaßen widerwilligen Respekt nötigt allenfalls seine Fähigkeit ab, unter vier verschiedenen politischen Systemen wirtschaftlich erfolgreich zu sein. Schon aus diesem Grund erscheint es den Autoren angezeigt, Flick "als Unternehmer ernst zu nehmen" (S. 9). ...
Bei der Ionenstrahltherapie bestimmt die Energie der Ionen die Eindringtiefe in das Gewebe und damit die Lage des Braggpeaks, in dem der größte Teil der Ionisationsenergie deponiert wird.
Um die gewünschte Dosis möglichst genau im Tumor zu lokalisieren, müssen in den aufeinanderfolgenden Extraktionen die gewünschten unterschiedlichen Energien möglichst genau sein.
In der Beschleunigungsphase werden die Magnetfelder der Magnete im Synchrotron bis zum vorgegebenen Exktraktionswert hochgefahren. Dieser bestimmt zusammen mit der Synchrotronfrequenz die Strahlenergie. Während und insbesondere am Ende dieser Phase, Rampe genannt, sollte das Magnetfeld daher sehr genau dem berechneten Sollwert folgen, um Strahlverluste zu minimieren und die geforderte Strahlqualität zu erreichen.
In der zeitlichen Steuerung der Magnetströme müssen magnetische Effekte, die hauptsächlich im Eisen der Magnete auftreten, wie Wirbelströme und die Hysterese berücksichtigt werden, da sie das Feld verfälschen und damit den Strahl in unerwünschter Weise beeinflussen. Die während der Rampe entstehenden Wirbelströme stören das Magnetfeld, so dass bisher vor der Extraktion des Strahls eine Wartezeit eingeführt wurde, bis die Wirbelströme abgeklungen waren.
Bei beliebig wählbaren Abfolgen der vordefinierten Zyklen kommt es durch die Hysterese des Eisens zu unterschiedlichen Remanenzfeldern, die das Magnetfeld verändern. Um dem vorzubeugen, durchliefen die Magnete eine vordefinierte Hystereseschleife. Ist die geforderte Energie des Strahls erreicht, wird das Magnetfeld konstant gehalten und die Teilchen aus dem Synchrotron extrahiert. Der Rest der Hystereseschleife wurde am Ende des Zyklus durchlaufen.
Die im Rahmen dieser Dissertation entwickelte dynamische Magnetfeldregelung misst das integrale Magnetfeld sehr genau und korrigiert die Feldfehler. Das integrale Magnetfeld folgt damit jederzeit seiner Vorgabe, unabhängig von den dynamischen Störeffekten. Die Wirbelströme und die Hysterese sind zwar immer noch vorhanden, die dadurch verursachten Feldfehler können aber durch eine Rückkopplung auf den Strom des Magneten korrigiert werden.
Es werden verschiedene Verfahren zur Messung der Magnetfelder untersucht. Am besten eignet sich für die dynamische Magnetfeldregelung die Kombination aus einer Hallsonden- und einer Induktionsspulenmessung. Die Messung muss das integrale Magnetfeld des Magneten BL, also das gesamte Feld entlang des Strahlwegs, bestimmen. Die Induktionsspule, oder Pickupspule, liegt deshalb entlang des Strahlrohrs im Magneten und liefert eine Spannung in Abhängigkeit von der Änderung des magnetischen Flusses. Durch die Integration dieser Spannung erhält man das integrale Feld des Magneten. Die Messung wird mit einer Hallsondenmessung zu Beginn des Beschleunigerzyklus auf einen absoluten Messwert geeicht.
Der Hauptteil dieser Arbeit beschäftigt sich mit der Entwicklung des sogenannten HIT Integrators, der die Integration der Pickupspulenspannung übernimmt. Bisher verfügbare Integratoren konnten die notwendigen Anforderungen an Genauigkeit, Echtzeitfähigkeit, automatische Kalibrierung, ständige Messbereitschaft, Temperaturunabhängigkeit und hohe Verfügbarkeit nicht erfüllen. Der neu entwickelte HIT Integrator wurde diesen Anforderungen entsprechend entwickelt. Der Integrator mit dem neuartigen Konzept der gleichzeitigen Messung und Kalibrierung in Echtzeit ist als Patent angemeldet worden. Neben der Entwicklung und Verwirklichung des Gesamtkonzepts war die numerische Integration des stark verrauschten Pickupspulensignals und die sofortige Umsetzung des integralen Werts in ein Steuersignal für die Dipolmagnetstromgeräte eine besondere technische Herausforderung.
Die elektronischen Schaltungen für die dynamische Magnetfeldregelung sind in der Baugruppe des HIT Integrators zusammengefasst. Die Ansteuerung der Hallsonde mit einer temperaturkompensierten Stromquelle, der Signalaufbereitung und Analog-Digital-Wandlung, sowie der Integrator und der Regler bilden eine technische Einheit.
Der HIT Integrator ist speziell für den Einsatz im bestehenden Beschleunigerkontrollsystem und den Magnetnetzgeräten entwickelt worden.
Die Regler der Magnetnetzgeräte wurden so verändert, dass sie einen Zusatzsollwert verarbeiten können, der auf den berechneten Sollwert der Datenversorgung addiert wird.
Die Magnetfeldregelung wurde in den Therapiebeschleuniger integriert, dazu wurde die Datenversorgung und das Kontrollsystem angepasst. Die Magnetfeldregelung stellt ein neues Gerät im Beschleuniger dar, das in die Netzgeräte der Synchrotronmagnete eingebaut worden ist. Die Datenversorgung dieser Geräte beinhaltet u.a. eine neue Methode der Kalibrierung.
Es konnte durch Messungen gezeigt werden, dass die Magnetfeldregelung mit hoher Genauigkeit funktioniert. Es wird eine Genauigkeit von besser als 10^{-4} des maximalen Feldes von 1.5 T erreicht, also weniger als 150uT, der dreifachen Stärke des Erdmagnetfelds. Vor allem die Bestrahlungszeit mit Protonen und die Bestrahlung bei niedrigen Energien profitiert von der Magnetfeldregelung, da hier das Extraktionsniveau der Magnete relativ gering ist und das Durchlaufen der vordefinierten Hystereseschleife prozentual mehr Zeit im Zyklus in Anspruch nimmt. Durch den Wegfall dieser Phase wird daher pro Zyklus mehr Zeit eingespart. Die Messungen zeigen, dass im Beschleunigerzyklus trotz der fehlenden Wartezeiten, die bis zu 24% betragen, eine gleichbleibend gute Strahlqualität erreicht wird. Dies wurde mit Vergleichsmessungen gezeigt, bei denen der Strahl mit und ohne Feldregelung vermessen wurde. Untersucht wurde eine große Stichprobenmenge aus dem Parameterraum, gegeben durch zwei Ionensorten mit jeweils 255 Strahlenergien, 10 verschiedenen Teilchenraten und 4 Strahlbreiten. Außerdem wurde die Energie des Strahls nachgemessen.
Für die Einführung in den Therapiebetrieb musste eine Impactanalyse gemacht werden, die mögliche Auswirkungen des neuen Verfahrens behandelt. Das Risiko für Patienten, Mitarbeiter und Dritte darf durch die Magnetfeldregelung nicht erhöht werden. Daraus entstand auch die Forderung nach einem redundanten System, das Fehler erkennt und die Bestrahlung abbricht.
Die mittlere Leistungsaufnahme des Beschleunigers des Heidelberger Ionenstrahltherapiezentrums liegt bei etwa 1 MW, bei einem Jahresenergieverbrauch von 8 GWh mit Kosten von etwa 1 Million Euro. Dies entspricht einer deutschen Kleinstadt mit 10000 Einwohnern. Die Verkürzung der Zykluszeiten wirkt sich direkt auf die Bestrahlungszeit und auf die Energiekosten aus. Würde man die Anlage durch die Zeiteinsparungen kürzer betreiben, würde man etwa 2 GWh pro Jahr sparen, was die Stromkosten um etwa 250000 Euro reduziert.
Zusätzlich zu den eingesparten Kosten wird auch die Bestrahlungszeit kürzer und damit auch die Zeit, die der Patient bei der Behandlung fixiert wird. Die Behandlung für die Patienten wird angenehmer. Man kann aber auch durch die eingesparte Bestrahlungszeit pro Patient entsprechend mehr Patienten behandeln. Das heißt man kann an Stelle von 700 Patienten im Jahr 910 Patienten mit einem Tumor behandeln. Dieser für die Patienten willkommene Effekt bedeutet auf der anderen Seite für HIT aber auch Mehreinnahmen von 4.2 Millionen Euro im Jahr.
Das Konzept der Magnetfeldregelung kann auch an anderen Beschleunigeranlagen zum Einsatz kommen. Dazu müssen die Magnete mit den Sonden bestückt werden und die Magnetnetzgeräte einen Eingang für einen Zusatzsollwert bekommen. Das Beschleunigerkontrollsystem kann erweitert werden, damit es einen Sollwert mit allen notwendigen Kalibrierungen berechnen kann. Der HIT Integrator wird dann als eigenständiges Gerät in das Kontrollsystem eingebunden.
Das Heidelberger Ionenstrahl Therapiezentrum (HIT) ist die erste klinische Anlage in Europa, an der die Strahlentherapie zur Tumorbekämpfung mit schwereren Ionen als Protonen möglich ist. Seit November 2009 wurden mehr als 1500 Patienten bei HIT behandelt.
Dabei kommt das beim GSI Helmholtzzentrum für Schwerionenforschung GmbH in Darmstadt entwickelte Rasterscan-Verfahren zum Einsatz. In der Bestrahlungsplanung wird der Tumor in Schichten gleicher Ionen-Energie und jede Schicht in einzelne Rasterpunkte eingeteilt. Für jeden Rasterpunkt wird eine individuelle Teilchenzahl appliziert, die am Ende zu der gewünschten Dosisverteilung führt. Dabei kann sich die benötigte Teilchenbelegung der einzelnen Rasterpunkte auch innerhalb einer Schicht um mehr als zwei Größenordnungen unterscheiden.
Ein auf wenige Millimeter Durchmesser fokussierter Teilchenstrahl kann in allen Raumrichtungen variiert werden, so dass selbst für unregelmäßig geformte Tumoren eine hochgenaue Dosiskonformität erreicht wird. Messkammern, die in der Ionen-Flugbahn kurz vor dem Patienten installiert sind, überwachen kontinuierlich Position, Form und Intensität des Strahls und ermöglichen so die Rasterpunkt-abhängige Dosisabgabe.
Zur Bereitstellung des Teilchenstrahls ist eine komplexe Beschleunigeranlage nötig, die eine große Bibliothek an möglichen Strahlparametern erzeugen kann. Das Herzstück der Anlage ist ein Synchrotron, in dem die Ionen auf die gewünschte Energie beschleunigt und anschließend über mehrere Sekunden extrahiert werden. Diese langsame Extraktion ist nötig, um dem Bestrahlungssystem genug Zeit für die korrekte, punktgenaue Dosisabgabe zu geben. Die zeitliche Struktur der beim Patienten ankommenden Strahlintensität wird Spill genannt.
Der verwendete Extraktionsmechanismus ist die transversale RF-Knockout Extraktion, die auf dem Prinzip der langsamen Resonanzextraktion beruht. Die im Synchrotron umlaufenden Teilchen werden dabei transversal angeregt, bis nach und nach ihre Schwingungsamplitude so groß ist, dass sie in den Extraktionskanal gelangen. Das für diese Anregung verantwortliche Gerät ist der RF-KO-Exciter. Er ist so eingestellt, dass ein möglichst konstanter Teilchenstrom das Synchrotron verlässt.
Bereits beim Befüllen des Synchrotrons variiert jedoch die injizierte Teilchenzahl und deren Verteilung im Phasenraum, so dass die voreingestellte Amplitudenfunktion des RF-KO-Exciters keinen idealen Spill liefern kann. Es kommt unweigerlich zu Schwankungen der Intensität am Strahlziel. Die erreichbare Leistungsfähigkeit der Therapieanlage hängt jedoch in hohem Maße von der Spillqualität ab. Je besser diese ist, umso schneller kann die individuelle Bestrahlung erfolgen und um so mehr Patienten können in gleicher Zeit behandelt werden.
Die vorliegende Arbeit beschäftigt sich mit der Verbesserung der Spillqualität am Bestrahlungsplatz. Dazu wird ein Regelkreis zwischen den Strahl-detektierenden Messkammern und dem die Extraktion steuernden RF-KO-Exciter geschlossen. Ionisationskammern, die auch zur Dosisbestimmung verwendet werden, messen die aktuelle Intensität. Das Therapiekontrollsystem, das den gesamten Bestrahlungsprozess steuert, gibt den Sollwert vor und leitet alle Informationen zur Reglereinrichtung. Dort wird in Abhängigkeit der Abweichung aus gewünschter und tatsächlich vorhandener Intensität sowie dem Regelalgorithmus ein Korrektursignal errechnet und dem RF-KO-Exciter zugeführt. Eine der Herausforderungen bestand dabei im Auffinden der geeigneten Regelparameter, die entsprechend der Strahlparameter Energie und Intensität gewählt werden müssen.
In einem ersten Schritt kann so der extrahierte Teilchenstrahl auf dem jeweils geforderten, konstanten Niveau gehalten werden. Diese Stufe wird seit April 2013 vollständig im Routinebetrieb der Therapieanlage verwendet. Der zweite Schritt besteht in der Anpassung der Extraktionsrate an den individuellen Bestrahlungsplan. So können die Rasterpunkte, die eine hohe Dosis benötigen, mit einer höheren Intensität bestrahlt werden, was die Bestrahlungszeit deutlich reduziert. Die Vollendung dieser Stufe ist bis Ende 2013 vorgesehen.
Im Rahmen dieser Arbeit wurden zwei Testsysteme sowie die Implementierung in den Routinebetrieb des Therapiebeschleunigers einer solchen Intensitäts- oder Spillregelung realisiert. Dies beinhaltet den Aufbau der Systeme, die Bereitstellung von Soll- und Istwert sowie die Auslegung und Einstellung des Regelkreises. Der erste Testaufbau für ein Strahlziel des Beschleunigers diente generellen Studien zur Machbarkeit einer solchen Regelung. Die dabei gesammelten Erfahrungen über nötige Erweiterungen führten zur zweiten Generation einer Testumgebung auf Basis eines Echtzeit-Ethernet-Systems. Dieses ermöglichte bereits die Regelung an allen Strahlzielen der HIT-Anlage sowie die Verwendung von unterschiedlichen Regelalgorithmen.
Mit den Systemen wurden Messungen zur Charakterisierung der Spillregelung im Parameterraum des Beschleunigers durchgeführt, um so ihre Möglichkeiten und Grenzen zu untersuchen. Erkenntnisse aus dieser Testphase flossen direkt in die Implementierung des für den Patientenbetrieb eingesetzten Systems ein, für das ein hohes Maß an Betriebs-Stabilität erforderlich ist. Es wurde in das Beschleuniger-Kontrollsystem unter Berücksichtigung des Sicherheitskonzeptes der Anlage integriert.
Die reine Bestrahlungszeit wird durch die Realisierung der ersten Stufe um bis zu 25% reduziert, nach Vollendung der zweiten Stufe wird sie um weitere bis zu 50% verringert. Strahlzeiten für Nachjustierungen der Spillqualität werden ebenfalls zum Teil eingespart. Insgesamt konnte durch die Spillregelung die Effizienz der Anlage deutlich gesteigert werden.
Der Eintritt des Lesers in die Welt der "Wächter"-Romane Sergej Lukianenkos mutet geradezu konventionell an. Der Ich-Erzähler und Protagonist Anton Gorodezki, lichter "Anderer", Nachtwache Moskau, durchstreift die nächtlichen Straßen in wichtiger Mission: er folgt dem Ruf eines dunklen "Anderen", eines Vampirs, um das damit angelockte menschliche Opfer zu retten. Nach und nach entfaltet sich die Welt der Wächter. In der uns bekannten Welt leben neben den normalen Menschen die magiebegabten "Anderen", Vampire und Werwölfe, Hexen und Zauberer etc. Von den Menschen, zumindest den Menschen der Moderne, weitgehend unbemerkt leben sie unter uns und bestimmen wesentlich die Ereignisse der Weltgeschichte.
Gemeinsam ist allen "Anderen" die Fähigkeit, in die magische Parallelwelt des Zwielichts eintauchen zu können. Getrennt sind sie durch ihre Zugehörigkeit zu den Lichten beziehungsweise zu den Dunklen, die sich in einem immerwährenden Kampf gegeneinander und um die Seelen der Menschen befinden. Zu Nutz und Frommen der Menschen kämpft das Gute gegen das Böse, Magie ist auch im Spiel – ein bekanntes Muster der Fantasy.
In literaturwissenschaftlichen Analysen des Genres spielt "Gut gegen Böse" dennoch ein weitgehendes Schattendasein. Definitionsversuche der Fantasy etwa von Pesch und Weinreich nennen das Begriffspaar nicht, eben sowenig das Phantastikhandbuch unter dem Lemma "Fantasy", allerdings als Grundmotiv der Apokalypse. Abraham führt es nicht als Teil seiner Definition, aber immerhin als einen Unterpunkt von "Dichotomien abendländischer Fantastik". Wiewohl Abraham insbesondere für neuere Werke und Adaptionen ausführt, dass nicht "ein einfacher Schwarz-Weiß-Kontrast [...], sondern tatsächlich eine Dichotomie" zwischen Gut und Böse vorliege und einzelnen Figuren psychologische Tiefe in diesem Bereich verliehen werde, so mag das relative Desinteresse an diesem Bereich auch daran liegen, dass ein oft recht holzschnittartig gearbeiteter Gegensatz ein wenig ergiebiges Arbeitsfeld oder Definitionskriterium darstellt. Auffällig ist, dass Abrahams vergleichsweise ausführliches Eingehen auf das Thema in einer "Einführung für Schule und Hochschule", unter einer spezifisch "medien- und rezeptionsorientierten Perspektive" stattfindet.
Selbst Spezialisten der Geschichte des Basler Konzils (1431–1449) und des Herzogtums Burgund im 15. Jahrhundert dürfte Nicolas Jacquier, ein Mönch aus dem Predigerkonvent zu Dijon, allenfalls dem Namen nach bekannt sein. Kaum mehr weiß man über ihn, als dass er sich für seine Person Anfang 1433 in die Synode inkorporierte, um dort fortan – recht erstaunlich für einen Burgunder, aber auch für einen Dominikaner – radikal antirömische Positionen zu beziehen, was – nicht minder erstaunlich – den papstverbundenen Philipp den Guten keineswegs daran hinderte, ihn fast zur selben Zeit, 1435, in eine Gesandtschaft zum englischen König zu berufen, wie er auch später noch mehrfach herzogliche Missionen übernahm, so 1451 zum römisch-deutschen König, 1455 nach Ungarn und schließlich 1467 in das zur Krone Böhmen gehörende Schlesien. Gegen die Hussiten hatte der Herzog selber bereits in den zwanziger Jahren das Kreuz nehmen wollen, und vier Jahrzehnte später erschien die häretische Gefahr angesichts eines "Ketzerkönigs" Georg von Podiebrad wiederum virulent, zumal sich der Böhme mit Philipps ärgstem Gegner, Ludwig XI. von Frankreich, zu verbünden trachtete (vgl. S. 20f.). Überdies mahnten, wie ebenfalls schon in den Zwanzigern, erneut häretische Umtriebe im Süden der burgundischen Niederlande (la »vauderie« d’Arras) zu erhöhter Wachsamkeit. ...
Wenn eine ungedruckte Habilitationsschrift fast vier Jahrzehnte nach ihrer Abfassung publiziert wird, muss sie eigentlich von zwar erst spät entdecktem, doch außerordentlichem Interesse für die Fachwelt sein. Und mehr noch, hier bringt deren Herausgeber gleich eine höhere Macht ins Spiel, wenn er meint, der Zeitpunkt der Drucklegung genau 20 Jahre nach dem frühen Tod des Verfassers (1992) könne »durchaus auch als kleines Indiz für die Fügung des einzigen Herrn der Geschichte« angesehen werden (S. V). Da sei doch an die gelassen-relativierende rheinische Lebensweisheit erinnert: »Dat kann mer so, aber auch so sehen.« Für meinen Teil neigte ich schon Ende der 1970er Jahre zum zweiten »so«, als Leinweber mir freundlicherweise Auszüge seiner Arbeit in Kopie zukommen ließ, die ursprünglich in geradezu utopischem Ausgriff »Die Synoden in Italien, Deutschland und Frankreich von 1215 bis zum Tridentinum« erfassen sollte und unter solchem Titel wiederholt, auch von ihm selbst, angekündigt wurde; s. etwa Annuarium Historiae Conciliorum 4 (1972), S. 5 (dies zum Tadel des Herausgebers wegen entsprechender Zitierung u. a. durch mich, welche die tatsächliche Unkenntnis des Manuskripts offenbare; S. XVIII, Anm. 47). Damals mit einer Studie »Die Franzosen, Frankreich und das Basler Konzil (1431–1449)« (erschienen 1990), also einer Nachbarthematik, befasst, hielt ich nach Lektüre jener Auszüge eine vertiefende, insbesondere den Stand der französischen Forschung angemessen rezipierende Überarbeitung für unabdingbar, doch das Werk liegt nunmehr unverändert und damit in einer Form vor, die zudem aus dem Abstand mehrerer Dezennien recht befremdlich wirkt. ...
Within the scope of the Wildlife Conservation Programme of the Botanical Society for the Nature Conservation in Hesse, a comprehensive survey was carried out of a comparatively common species, the Common Pasque Flower (Pulsatilla vulgaris). It still occurs in large populations on the nutrient poor chalk meadows of the Vorderhoen and Kuppenhoen. Other populations are known from the Wetterau and the Schluechterner Becken. A few other populations are known, but they only have a few individuals. Altogether 64 populations were recorded, five with more than 1,000 plants. The largest population, with over 50,000 individuals, is in the Weinberg nature reserve, Molzbach (near Huenfeld).
Die lakustrinen Sedimente im Vorotan-Becken (Armenien) wurden palynologisch untersucht. Aus den Ergebnissen konnte die Vegetationsgeschichte im Südlichen Kaukasus während des Frühpleistozäns teilweise rekonstruiert werden.
Bei den Sedimenten handelt es sich um diatomeenreiche Tone, Silte und Feinsande, in denen Pollen gut und pflanzliche Makroreste ausgezeichnet erhalten sind. Die Datierung ist durch die Kombination von Paläomagnetik und 39Ar/40Ar-Methode eindeutig: Die Sedimente decken den Beginn der „mid Pleistocene transition“ (1?110?–?960 ka) ab.
An zehn Aufschlüssen wurden insgesamt 506 Sedimentproben genommen und die darin enthaltenen Pollen untersucht. So konnten insgesamt 64 Taxa nachgewiesen werden. Sie wurden in Pollenprofilen zusammengefasst und ökologisch bewertet. Die erhobenen Daten wurden zudem einer Faktorenanalyse und einer Clusteranalyse unterzogen, deren Ergebnisse ebenfalls in die Pollenprofile eingingen.
Die Pollenprofile lassen deutlich regionale Vegetationszyklen während des Frühpleistozäns erkennen. Diese Zyklen werden ausführlich beschrieben und mit Ergebnissen anderer Autoren aus dem Mittelmeerraum verglichen. Auch ein Bezug zur rezenten Vegetation im Südlichen Kaukasus und den angrenzenden Gebieten wird hergestellt.
Die Paläovegetation im Südlichen Kaukasus ist demnach während des Frühpleistozäns geprägt von einem Vegetationsmosaik aus Grassteppe und offenen Wäldern. Je nach Klima lassen sich Einflüsse von angrenzenden Vegetationszonen erkennen: borealer Nadelwald der Höhenlagen des Kaukasus, thermophiler Laubwald der euxinischen und hyrkanischen Wälder sowie xerotherme Steppe des Nordiran.
Während der Interglaziale herrscht eine Waldsteppe aus thermophilem Laubwald (z.?B. Quercus, Carpinus, Ulmus, Zelkova, Tilia) vor, in der bei starken Erwärmungsphasen die Grassteppe deutlich dominiert und die Wälder wohl an Nordhänge und in Uferbereiche zurückgedrängt werden. In den Glazialphasen finden sich zunehmend Koniferen in der Vegetation (z.?B. Tsuga, Abies, Picea, Pinus) – bis hin zu einem nahezu geschlossenen Kiefernwald am Ende des ersten lang andauernden Glazials MIS 30.
Es zeigt sich, dass sich die einzelnen Klimazyklen in der Ausprägung der Vegetation signifikant unterscheiden. Hierbei spielt sowohl die Amplitude der Erwärmung als auch die Dauer der jeweiligen Phase eine Rolle.
Der Vergleich mit anderen Untersuchungen zeigt, dass die Vegetationszyklen im Südlichen Kaukasus teilweise deutlich anders verlaufen als im westlichen, zentralen und östlichen Mittelmeerraum. Entlang einer Ost-West-Achse ist hier ein „Vegetationsgradient“ zu erkennen.
Das hat Auswirkungen auf die Interpretation der Ausbreitung früher Menschen aus Afrika nach Eurasien. Es ist davon auszugehen, dass sich nicht jeder Vegetationszyklus des Frühpleistozäns gleichermaßen gut für ein Vordringen nach Eurasien eignete. Geeignete Bedingungen (offene Landschaft, Vegetationsmosaik, warmes Klima) herrschten im Südlichen Kaukasus vor allem während stark ausgeprägter Interglaziale. Dagegen brachten lang anhaltende Glazialphasen wohl eher lebensfeindlichere Bedingungen für Homo erectus.
Weil in den südlichen Regionen Europas teilweise eine stark abweichende Vegetation während der unterschiedlichen Klimaphasen vorherrschte, ist es naheliegend, dass der Südliche Kaukasus für die frühen Menschen eine Rolle als Refugium spielte.
Deutlich zeichnen sich in den Ergebnissen Veränderungen in der Vegetation beim Übergang von den obliquitätsdominierten 41-ka-Klimazyklen zu den exzentrizitätsbestimmten 100-ka-Zyklen ab („mid Pleistocene transition“). Diese Veränderungen haben sich sicherlich auch auf die Population der Menschen ausgewirkt und größere Wanderbewegungen und/oder Anpassungen hervorgerufen. Möglicherweise haben in dieser drastischen Veränderung sogar kulturelle Entwicklungen ihren Anfang – zum Beispiel die Nutzbarmachung des Feuers.