Refine
Year of publication
- 2004 (1224) (remove)
Document Type
- Article (491)
- Doctoral Thesis (235)
- Review (107)
- Part of Periodical (97)
- Part of a Book (85)
- Working Paper (43)
- Book (41)
- Report (33)
- Conference Proceeding (21)
- diplomthesis (21)
Language
- German (1224) (remove)
Keywords
- Johann Wolfgang von Goethe (36)
- Frankfurt <Main> / Universität (29)
- Rezension (24)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
- Deutschland (18)
- Deutsch (15)
- Goethe, Johann Wolfgang von (15)
- Literatur (14)
- Vormärz (14)
Institute
- Medizin (124)
- Extern (60)
- Biochemie und Chemie (46)
- Rechtswissenschaft (45)
- Physik (32)
- Erziehungswissenschaften (30)
- Biowissenschaften (26)
- Präsidium (26)
- Universitätsbibliothek (23)
- Kulturwissenschaften (22)
Die Hoffmannsche Buchhandlung ist die älteste in Weimar; ihr Ursprung läßt sich bis ins Jahr 1732 zurückverfolgen. Ihre Geschichte in der zweiten Hälfte des 18. und in den ersten Jahrzehnten des 19. Jahrhunderts spiegelt die Entwicklungsphasen des Verlagsbuchhandels in dieser Zeit deutlich wider. Das betrifft sowohl die interne typologische Entfaltung, kurz gesagt der Weg zum Kommissions- und Sortimentshandel, als auch die zeitbedingten Fortschritte und Krisen in den bewegten Jahrzehnten um 1800. [...] Die Hoffmannsche Buchhandlung und das 1791 von Bertuch gegründete Landes-Industrie-Comptoir können ohne Zweifel deshalb besondere Aufmerksamkeit beanspruchen, weil sie in einem kulturgeschichtlich bedeutsamen lokalen Umfeld, dem "vorklassischen" und "klassischen" Weimar, agierten. Unter diesem Gesichtspunkt erhalt eine Hauptfrage an die Thüringer Verlagsgeschichte dieser Zeit einen besonderen Akzent: Gelingt es den in den Fürstlichen Residenzen tätigen Verlagsbuchhändlern, über die speziellen lokalen und regionalen Verpflichtungen und Bindungen hinaus eine literarische Produktion von überregionaler Bedeutung auf den Markt zu bringen? In Weimar, aber auch mutatis mutandis in Gotha, entstanden im letzten Viertel des 18. Jahrhunderts besondere, fördernde Bedingungen für eine solche höhere Geltung und überregionale Wirksamkeit, die es im einzelnen nachzuweisenund darzustellen gilt.
Außerhalb der indoeuropäischen Sprachen [erfreut sich] [d]ie Kategorie „Adjektiv“ […] einer geringeren Verbreitung als man als Laie vermuten würde, und es zeigen sich in nicht-indoeuropäischen Sprachen von den europäischen Sprachen stark verschiedene Aufteilungen der Welt in Nomina und Verba. Eine bisher nicht beschriebene Verteilung von Konzepten auf Wortarten in der Sprache Guarani, welche hauptsächlich in Paraguay gesprochen wird, ist das Thema dieser Arbeit.
Je nach regionaler Herkunft realisieren Sprecher des Deutschen die beiden Wörter "Verein" und "überall" unterschiedlich. [...] Der Grundgedanke dieser sprachtypologischen Unterscheidung, bei der wir uns hauptsächlich auf die Arbeiten von P. Auer (1993, 1994, 2001) sowie P. Auer / S. Uhmann (1988) beziehen, besteht darin, dass alle Sprachen eine Form von Isochronie anstreben.
Zeitnamen
(2004)
Der menschliche Alltag, das gesamte gesellschaftliche und individuelle Leben, unser Denken, Planen und Handeln basiert auf der Unterscheidung und Benennung von Zeitpunkten (im Sinne punktuell wahrgenommener Zeit) und Zeitabschnitten (im Sinne von sich über einen Zeitraum erstreckender Zeit). Damit ist eine von mindestens drei Bedingungen, onymisch bezeichnet zu werden, hochgradig erfülllt: die Relevanz des Objekts (beziehungsweise der Entität) in seiner Singularität und Individualität für den Menschen.
Vom Name-n-forscher zum Name-ns-forscher : unbefugte oder befugte ns-Fuge in Namen(s)-Komposita?
(2004)
Um die nun im Titel gestellte Frage zu beantworten: Es ist befugt, Komposita mit Name als Erstglied mit -ns- zu verfugen. Die Korpusbefimde weisen überdeutlich aus, daß "ns- hier hochproduktiv ist. Als Grund fiir diese starke Bevorzugung der ns-Fuge wurde der "Rückzug" der n-Fuge auf die Klasse der belebten, schwachen Maskulina und damit die Funktionalisierung ebendieser Fuge als Klassen- und Belebtheitszeichen ermittelt. Der Name als Simplex hat sich zwar bereits mit dem starken Genitiv Singular Namens aus der Klasse der schwachen Maskulina entfernt, doch verharrt er weiterhin in einer kleinen Mischklasse, deren Mitglieder zum größten Teil bereits in die starke (sog. "Balken-") Klasse abgewandert sind oder dabei sind, dies zu tun. Daß der Name sich diesem Wandel entzieht, geschieht jedoch unbefugter- und unerklärtermaßen. Die Beschäftigung mit den Namen/s-Schwankungen hat ferner erbracht, daß gerade die ältere Schicht an Namens-Komposita lexikalisiert ist (Namenstag, Namensvetter) und daß die n-Fuge nur noch in fachsprachlicher Verwendung dominiert (Namenaktie, Namenkunde, Namenforschung). Als förderlich für die ns-Verfugung haben sich gerade die (ansonsten fugenhemmend wrrkenden) deverbalen Zweitglieder erweisen (Namensgebung), als hinderlich dagegen die Komplexität der 1. Konstitutente (Familiennamenforschung) - wenngleich diese Tendenzen nur fiir die s-Fuge ermittelt wurden. Die ns-Fuge erweist sich ilrrerseits als bessere Binnengrenzmarkierung, da [s] positionsbeschränkt, d.h. im Wortanlaut blockiert ist. Sowohl bei -n- als auch bei -ns- handelt es sich um paradigmische Fugen. Der Zufall bzw. das Alphabet will es, daß der Eintrag Name zwischen Naivling und Nandu (< span.-südam. nandu [njan'du]), dem südamerikanischen Kollegen des afrikanischen Straußenvogels, angesiedelt ist. Was den Nandu betrifft, so hat sich dieser Beitrag zumindest darum bemüht, den Kopf nicht in den Sand zu stecken. Was jedoch den Naivling anbelangt, so befinden wir uns bei dem faszinierenden Thema der Fugenelemente immer noch in diesem Stadium, auch wenn mittlerweile bei der Frage nach Funktion und Grammatik dieser "Grenzfälle morphologischer Einheiten" (so der Titel von Fuhrhop 1998) große Durchbrüche erzielt worden sind. Wenn es aber, wie in diesem Beitrag, um Schwankungs- und damit um Grenzfälle solcher Grenzfälle geht, so tut sich, um die Sache positiv zu wenden, ein ganzer Strauß (oder Nandu) an Desideraten, Herausforderungen und Forschungsperspektiven auf.
Namenskunde
(2004)
Eigennamen (auch Propria, Onyme) werden unter die Substantive subsumiert und erfüllen spezifische referentielle Funktionen. Im Gegensatz zu den Appellativen (Gattungsbezeichnungen) wie z. B. Mensch oder Stadt, die eine ganze Klasse von Gegenständen bezeichnen, referieren Eigennamen prototypischerweise nur auf ein einziges Denotat (Monoreferentialität), z. B. Goethe oder Frankfurt.
Those principles of Naturalness as postulated by Mayerthaler (1981) claim to make predtictions about the direction of language change possible. It is true that the majority of morphological changes can be accounted for by these principles. However, systematic violations of these rules can be found in of all things, some of most frequent, elementary verbs such as HAVE, BE, BECOME, COME, GO, GIVE, TAKE, etc. Their irregularities cannot be accounted for solely - as Naturalness Theory would have it - by conflicts between phonological and morphological Naturalness. Rather, they have been systematically built up through other efficient strategies. This "regularity of irregularity" is the focus of this paper, which demonstrates several particularly well-beaten paths to irregularization through contrastive diachronic investigations of frequent verbs in different Germanic languages. lrregularity, a term laden with negative connotations, is substituted by the term differentiation, which names the actual function directly. Because differentiation typically correlates with word brevity, this constellation should be considered an ideal compromise between hearer and speaker interests. A further question to be addressed is which individual categories are expressed through irregularization. It is concluded that this process is guided by token frequency and degree of relevance.
Als Jürgen Udolph am 1. Oktober 2003 das Symposion "Völkernamen, Ländernamen, Landschaftsnamen" in Leipzig eröffnete, sagte er unter anderem: "Ich freue mich, daß Sie alle den Weg in die neuen Bundesländer gefunden haben". Genau dieser Satz leitete unbeabsichtigt die Fragestellung meines damaligen Vortrags bzw. des hier vorliegenden Beitrags ein: Ist das Syntagma die neuen Bundesländer bereits ein Eigenname, ist es noch eine definite Beschreibung, oder ist es etwas dazwischen? Wäre es auch möglich gewesen, zu sagen: "Ich freue mich, daß Sie den Weg in ein neues Bundesland ... " oder" ... in das neue Bundesland Sachsen gefunden haben"? Die muttersprachliche Kompetenz verneint diese Alternativen eher, und dies deutet daraufhin, daß dieses Syntagma bereits stark proprialisiert (oder onymisiert) sein muß.
In unserem Beitrag gehen wir der Frage nach, wie Erwachsene neue Fähigkeiten und Fertigkeiten zum mündlichen Kommunizieren erwerben, d.h. aneignen. Ziel ist es, die beteiligten Prozesse für Analyse-, Beratungs- und Vermittlungszwecke zu systematisieren, um Antworten auf die folgenden Fragen zu finden: Welche Teilfähigkeiten werden zum mündlichen Kommunizieren überhaupt benötigt? Welche lassen sich leicht – welche nur schwer oder vielleicht gar nicht vermitteln bzw. aneignen? Welche Methoden eignen sich für die Vermittlung welcher Fähigkeiten? Ausgangspunkt unserer Überlegungen sind praktische Fragen des Kompetenzerwerbs, d.h. des Erwerbs der Fähigkeit, angemessen mündlich kommunizieren zu können. Wir gehen davon aus, dass es sich hierbei um eine spezifische Kompetenz handelt, die sich von anderen Kompetenzen unterscheidet (vgl. Fiehler/ Schmitt i.d.Bd.). Ihre Besonderheit liegt in den spezifischen Bedingungen der mündlichen Kommunikation begründet: Gespräche und Diskurse sind immer das Resultat aller daran Beteiligter, so dass die Anteile und beteiligten Kompetenzen des Einzelnen weniger offensichtlich sind als bei individuellen Tätigkeiten. Mündliche Kommunikation ist durch ihre Flüchtigkeit, Prozesshaftigkeit, Interaktivität und Musterhaftigkeit gekennzeichnet (vgl. Deppermann i.d.Bd., Abschn. 3). Die Bewältigung mündlicher Kommunikation erfordert ein spezifisches Ensemble von Wissen und Fertigkeiten, die sich zusammenfassend als Gesprächskompetenz beschreiben lassen. Auch wenn wir uns in diesem Beitrag auf die Gesprächskompetenz konzentrieren, sind wir nicht der Auffassung, dass der faktische Gesprächsverlauf ausschließlich eine Funktion dieser Kompetenz ist. Vielmehr spielen andere Faktoren wie Emotionen und Affekte, Beziehungs- und Rollenfragen ebenfalls eine Rolle.
Sprachwandel
(2004)
Solange es nur um die großen Namen unter ihren Beiträger geht, gehört die „Allgemeine Literatur-Zeitung“ zum Prominentesten in Literatur und Philosophie um 1800: Kant und Fichte zählen dazu, Schiller und August Wilhelm Schlegel. Auch sind, obwohl es sich hier ausschließlich um Rezensionen, also Sekundärliteratur handelt, einige ihrer Beiträge in den Kanon eingerückt: allen voran Schillers Bürger-Rezension. Ebenso ist Kants Besprechung von Herders „Ideen zur Philosophie der Geschichte der Menschheit“ über den Kreis der Kant-Spezialisten hinaus gegenwärtig. Dass hier bedeutende Namen über bedeutende Werke schreiben: das hielt die Erinnerung an die „A. L. Z.“ in einer an Namen und Werken orientierten Literatur- und Philosophiegeschichtsschreibung wach. Allerdings nur als Quellenangabe. Denn die Texte selbst liest man längst in den Werkausgaben, in die all das eingegangen ist, was der Germanistik und der akademischen Philosophie an der „A. L. Z.“ wichtig erschien. Die Zeitschriftenforschung, die alternativ zur Personen- und Werkgeschichte nach der eigenen Kontur dieses Mediums fragt, hat sich die „A. L. Z.“ noch kaum vorgenommen. Noch die jüngeren Beiträge, die ausdrücklich über diese Zeitschrift und nicht nur über deren berühmte Beiträger reden wollen, halten sich an Namen. So ist sie zum einen als Promulgator des Kantianismus vorgestellt worden, zum anderen als Kontrasthintergrund, von dem sich die Polemik der Brüder Schlegel abhebt.
Der Nobelpreis ist immer ein Politikum. Jedes Jahr auf Neue wird auch spekuliert, welche Gründe jenseits des Werkes des ausgezeichneten Autors noch eine Rolle gespielt haben mögen: Geschlecht, Hautfarbe, Herkunftsland, Kontinent, nicht-literarische Aktivitäten oder was man sonst noch so anführen mag. Man darf solche literaturfernen Gründe für einen Literaturnobelpreis nicht grundsätzlich kritisieren. Wären sie nicht im Spiel, wäre es schwieriger, gegenüber dem dominanten westlichen mainstream die Literaturen aus eher peripheren Kulturkreisen überhaupt hervorzuheben. Und insofern hat der Literaturpreis auch die Funktion, die Aufmerksamkeit der literarischen Weltöffentlichkeit zu lenken. Doch dieses Jahr [2004] landet der Literaturnobelpreis in Österreich und damit auch in einem historischen Zentrum der westlichen Kultur – die Österreicher hören’s gern. Elfriede Jelinek ist eine klassische Autorin, wenn man das so sagen kann. [...] Elfriede Jelinek hat Österreich viel zu verdanken – nämlich ihr Werk. Und jetzt hat auch noch Österreich Elfriede Jelinek den Literaturnobelpreis zu verdanken!
In Blumenbergs „Arbeit am Mythos“ zeigt sich der Philosoph als vergleichender Literaturwissenschaftler. Und dies nicht im Nebenberuf, nicht zur interdisziplinären Ergänzung, sondern im Hauptgeschäft. Blumenbergs philosophische Erklärung des Mythos handelt nicht begrifflich abstrakt von ihrem Gegenstand, sie folgt vielmehr ganz den konkreten literarischen Überlieferungen und deren Darstellungsvielfalt. Begriffliche Orientierungen – grundsätzlich die, dass der Mythos menschliche Selbstbehauptung gegen Absolutismus der Wirklichkeit sei – werden gegeben, doch treten sie gegenüber dem Interesse am Stoffgeschichtlichen, an den literarischen Variationen etwa Prometheus-, der Odysseus- oder der Faust-Figur zurück. Damit vertritt und vollzieht Blumenberg den Primat der erzählenden Imaginationen vor jeder thematisch lehrhaften Zuordnung, den Primat der Geschichten vor dem, was religiöse, kosmologische, physikalische, moralische, historische, psychologische und andere Deutung aus ihren abstrahiert. „Komparatistik als Arbeit am Mythos“ kann also zur Beschreibung von Blumenbergs eigener Methode dienen, so wie umgekehrt seine Mythos-Philosophie der literaturwissenschaftlichen Beschäftigung mit den Mythen über alle stoffgeschichtliche Materialverwaltung hinaus eine eigene theoretische Dimension gibt.
Ziel: Ziel der Untersuchungen war es, selektive und potente P2-Rezeptor-Antagonisten, die sich von Suramin und PPADS ableiten, zu ermitteln sowie die Charakterisierung UTP-sensitiver Rezeptoren in epididymalen Segmenten des Samenleiters der Ratte vorzunehmen. Methoden: Am Samenleiter der Ratte (P2X1-Rezeptoren) und dem Ileum des Meerschweinchens (P2Y1-Rezeptoren) wurden Kontraktions-Inhibitions-Studien durchgeführt. Zur Untersuchung des UTP-sensitiven Rezeptors im Samenleiter der Ratte wurden Kontraktions-, Kontraktions-Inhibitions-Studien und histochemische- bzw. immunzytochemische Studien herangezogen. Ergebnisse: Durch Struktur-Wirkungs-Beziehungen von Analoga des NF023, Suramin, NF279, PPADS und SB9 konnten symmetrische Suramin-Analoga, wie NF816 (pA2=6,45) und unsymmterische NF279-Analoga, wie NF786 (pA2=6,76), erhalten werden, die potent, selektiv und kompetitiv ADPßS-induzierte Kontraktionen des Meerschweinchen-Ileums antagonisierten. Auch die heterodimer-bivalente Verbindung SB9, erwies sich an nativen P2Y1 -Rezeptoren als potenter, selektiver und kompetitiver Antagonist (P2Y1:pA2=6,91 vs. P2X1: pA2=5,98). Darüber hinaus ist SB9 P2-Rezeptor-spezifisch und schwach wirksam an Ekto-Nukleotidasen von Oozyten des Südafrikanischen Krallenfrosches (IC50 = 40 MikroM). Zur Charakterisierung des UTP-sensitiven Rezeptors des Samenleiters der Ratte wurde Evans Blau verwendet. Es konnte gezeigt werden, dass Evans Blau die Spaltung von exogenem ATP zu 75 % hemmt. Insbesondere die glatte Muskulatur ist ATPase-aktiv. An epididymalen Segmenten ist UTP (100 MikroM Evans Blau) ein voller Agonist (EC50 = 36 MikroM). Die Kontraktion beruht auf der Aktivierung postsynaptischer Strukturen und wird nicht durch UDP oder Uridin beeinflusst. Mit Agonisten konnte in Anwesenheit von 100 MikroM Evans Blau folgende Reihe der Wirkstärke erhalten werden: natürliche Agonisten, Ap4A > ATP = ADP = UTP > UDP; synthetische Agonisten, 2MeSATP > ATPgammaS > ADPßS. In Anwesenheit von 100 MikroM Evans Blau wurden UTP-induzierte Kontraktionen durch PPADS (IC50 = 20 MikroM) und Reaktiv Blau 2 (IC50 = 43 MikroM) nicht aber durch Suramin und MRS 2179 gehemmt. P2Y2-Rezeptor-spezifische Antikörper ergaben die Expression von P2Y2-Rezeptoren auf der glatten Muskulatur des Samenleiter der Ratte. Schlußfolgerungen: Analoga als auch pharmakophore Gruppen des Suramins und PPADS eignen sich als Ausgangs-Verbindungen bzw. -Strukturen zur Synthese von potenten und Subtyp-selektiven P2-Rezeptor-Antagonisten. Die Wirkungen von UTP sind durch P2u-Rezeptoren vermittelt. Die Ergebnisse deuten auf die Beteiligung von P2Y2- bzw. P2Y4-Rezeptoren in epididymalen Segmenten des Sameneiters der Ratte hin.
Die therapeutische Replantation von Zähnen zählt zu den endochirurgischen Eingriffen, wenn alternative Therapiemethoden nicht zum Erhalt des Zahnes oder der Zahnwurzel geführt haben oder aufgrund der bestehenden Risiken (z.B. Gefährdung des Nervus mandibularis bei einer Wurzelspitzenresektion) vom Patienten abgelehnt werden. Im Gegensatz zu Zahnreplantationen, die in Zusammenhang mit einem Trauma stehen, können therapeutische Zahnreplantationen geplant durchgeführt werden. Ziel der vorliegenden Arbeit ist es, einen Vergleich zwischen zwei unterschiedlichen Replantationsmethoden anhand von histologischen Serienschnitten und klinisch erhobenen Röntgenbilder in einer tierexperimentellen Studie an zwei Mantelpavianen durchzuführen. Die beiden Replantationsarten unterscheiden sich in der extraoralen Phase des Zahnes. In der konventionellen Methodik wird der Zahn in der Extraktionszange bzw. mit den Fingern gehalten und die Wurzelhaut mit Ringerlösung benetzt. In einer von LAUER [81] entwickelten Methodik wird der zu replantierende Zahn atraumatisch in einer speziellen Haltevorrichtung fixiert und dabei die Wurzeln in eine gekühlte, semisolide Nährlösung [72,81] eingebettet. Es besteht dadurch ein besserer Schutz des Desmodonts vor mechanischen, chemischen und thermischen Noxen während der extraoralen Therapiephase des Zahnes. Als Versuchsdesign wurde das Split-mouth-design gewählt. Jeder Zahn ist dabei eine Einheit für sich. Dadurch sind die Ergebnisse nicht nur vergleichbar, sondern auch präzise, da sie unter anderem vom Gesundheitszustand des Versuchstieres unabhängig sind. 82 Tage nach dem operativen Eingriff wurden die Versuchstiere geopfert. Vor den Replantationen und vor der Opferung wurden jeweils Röntgenbilder angefertigt. Die Auswertung der Röntgenbilder war aufgrund von Fehlinterpretationen, die anhand von Vergleichen zu histologischen Präparaten diagnostiziert wurden, nicht zielführend. Die histologische Aufarbeitung des Zahnhalteapparates erfolgte in axialen Serienschnitten zum Wurzelquerschnitt. In Anlehnung an ANDREASEN [9] wurde der Zustand des Desmodonts in fünf Klassen differenziert. Der Klassifizierungsdurchschnitt wies bei der die modifizierten Replantationsmethode nach LAUER mit einem Wert von 2,42 gegenüber der konventionellen Replantationsmethode mit einem Wert von 3,31 einen signifikant verbesserten Wert auf. Die nach der Lauer-Methode replantierten Zähne heilten besser ein, erreichten jedoch nicht die Vergleichswerte von nicht reimplantierten Zähnen (1,52). Auch die statistischen Testverfahren im Rahmen einer einfaktoriellen Varianzanalyse (ANOVA) zeigen signifikante Unterschiede bei der histologischen Bewertung des Desmodonts. Sowohl die Grundgesamtheit der Klassifizierungsmittelwerte pro Wurzel als auch die Grundgesamtheit der schlechtesten Desmodontbewertung pro Wurzel fallen bei keinem der angewandten Tests durch. Die Verteilung der Klassifizierungsmittelwerte pro Wurzel weist eindeutig auf einen Trend hin. Die innovative Replantationsmethode nach Lauer weist einen besser bewerteten Zustand des Desmodonts auf als bei der konventionellen Replantationsmethode. Die Ernährung, die Kühlung und der Kontaminationsschutz des Desmodonts während der extraoralen Therapiephase scheinen eine erhöhte Überlebensrate der Fibroblastenzelle zu verursachen. Dies führt zu der statistisch signifikant verbesserten Einheilung eines nach Lauer replantierten Zahnes.
Wasserstoffbrücken als strukturbildendes Element : Synthese und Berechnung supramolekularer Komplexe
(2004)
Die nicht-kovalente Synthese sowie die Berechnung der supramolekularen Komplexe wurden anhand dreier unterschiedlicher Stoffklassen demonstriert. Ziel war es, supramolekulare Dimere zu kristallisieren, die durch zwei Wasserstoffbrücken zusammengehalten werden. Die zuerst untersuchten Indol-Derivate waren potentiell selbstkomplementär. Während der Donor im starren Indol-Ring lag, befand sich der Akzeptor in der Seitenkette, was zu konformationell flexiblen Verbindungen führte. Durch Variation des Abstandes von Donor und Akzeptor, was einer Verlängerung der Seitenkette durch zusätzliche CH2-Gruppen entsprach, sollte herausgefunden werden, bei welcher geometrischen Anordnung dimere Komplexe entstehen Die Ergebnisse zeigten, daß die gewünschten Dimere erst bei einer Kettenlänge von drei CH2-Gruppen um Kristall zu beobachten waren. Diese konformationell flexiblen Verbindungen wiesen somit große Unterschiede zwischen berechneter und realer Komplexgeometrie auf, die darauf zurückzuführen sind, daß im Kristall eine Vielzahl von Molekülen wechselwirken, während in der Rechnung mit dem Kraftfeldprogramm MOMO nur zwei Moleküle berücksichtigt werden. Somit führt die „Sandwich“-Form zu einer günstigeren van-der-Waals-Energie als die planare Form. Im zweiten Abschnitt dieser Arbeit konzentrierten sich unsere Untersuchungen auf die Substanzklasse der Acetylhydrazone, welche ebenfalls potentiell selbstkomplementäre Verbindungen darstellen. Im Gegensatz zu den Indol-Derivaten wurde hier der Abstand zwischen Donor und Akzeptor konstant gehalten, um zu untersuchen, wie sich unterschiedliche Reste der Acetylhydrazone auf die Konformation der Moleküle und somit auch auf die Komplexgeometrie auswirken. Zu diesem Zweck wurde eine Reihe von Verbindungen mit Resten unterschiedlicher sterischer Hinderung synthetisiert. Ziel war es auch in dieser Verbindungsklasse gezielt Dimere mit zwei Wasserstoffbrücken zu kristallisieren. Eine Suche in der CSD zeigte schnell, daß Acetylhydrazone zwei Vorzugskonformationen besitzen: eine, in der Donor und Akzeptor eine anti-Anordnung besitzen, was in der Regel zu kettenförmigen Wasserstoffbrücken führt, und eine syn-Anordnung, die zu den gewünschten Dimeren führen sollte. Es galt nun zu untersuchen, welche dieser Reste zur syn-Konformation führt und welches die Vorzugskonformation der Acetylhydrazone ist. Die Untersuchungen zeigten, daß zwei sterisch anspruchsvolle Reste zur syn-Anordnung von Donor und Akzeptor führen und somit zu Dimeren im Kristall. Verbindungen mit zwei sterisch wenig anspruchsvollen Resten lagen hingegen in der anti-Konformation vor und bildeten wie erwartet Polymere. Für die Acetylhydrazone konnte folgende These aufgestellt werden: Die syn-Konformation entsteht, wenn beide Reste drei oder mehr (Kohlenstoff-) Atome besitzen, anderenfalls entsteht die anti-Anordnung. Die Rechnungen lieferten, bis auf eine Ausnahme, supramolekulare Dimere mit zwei Wasserstoffbrücken. Für jene Verbindungen, die ebenfalls in der syn-Konformation in Dimeren kristallisieren, ist die Übereinstimmung zwischen der berechneten und der realen Komplexgeometrie sehr gut. Im letzten Kapitel dieser Arbeit sollten heteromolekulare Komplexe, also solche, die aus zwei unterschiedlichen Molekülen bestehen, untersucht werden. Die erste der eingesetzten Verbindungen sollte zwei Donor-Gruppen enthalten, während die zweite Verbindung zwei Akzeptoren besitzen sollte. Dabei wurde eine Reihe von Diol-Dion-Komplexen untersucht. Dabei gelang es nur einen dieser Komplexe zu kristallisieren und experimentell zu untersuchen. Leider lagen keine Dimere vor, sondern es bildete sich ein 2:1-Komplex (Diol/Dion), der kettenförmige Wasserstoffbrücken ausbildete. Erfreulich war hingegen, daß eine Konformationänderung des Dions zu beobachten war; denn gegenüber der Kristallstruktur der reinen Verbindung lag 25 im Komplex als planare Verbindung vor. Gleichzeitig wurden die möglichen Komplexgeometrien mit MOMO berechnet. Die meisten der berechneten Komplexe wiesen Dimere mit den gewünschten zwei Wasserstoffbrücken auf.
Inhalt der vorliegenden Forschungsarbeit ist die Entwicklung und Validierung von Trainingsempfehlungen an jugendliche Basketballspieler für das Konditionstraining. Am Beispiel Basketball wurde das Forschungsziel verfolgt, ein Modell zu erarbeiten, dass die diagnostische Betreuung des Konditionstrainings von jugendlichen Mannschaftssportlern ermöglicht. Die Untersuchung am Institut für Sportwissenschaften (IfS) der Johann Wolfgang Goethe — Universität Frankfurt am Main als Diagnosezentrum erfolgte in Zusammenarbeit mit dem Basketball-Teilzeit-Internat Langen (BTI) als Trainingsinstitution. Die 35 jugendlichen Versuchspersonen waren weibliche und männliche D-und C-Kaderspieler des Hessischen Basketball Verbandes (HBV) und des Deutschen Basketball Bundes (DBB) im Alter von 13 bis 17 Jahren, die zusätzlich zum eigenen Vereinstraining, im BTI zwei- bis dreimal in der Woche individuell trainierten. Das erste Teilziel war die Auswahl einer Merkmalsstichprobe. Dabei mussten die Diagnosemöglichkeiten am IfS genauso wie die zeitlichen und ökonomischen Rahmenbedingungen des BTI-Trainings beachtet werden. Zudem musste eine für den Basketballsport adäquate Auswahl von konditionellen Leistungsfähigkeiten erfolgen, wofür eine detaillierte Betrachtung der Belastungs- und Beanspruchungsanforderungen im Jugendbasketball nötig war. Das entsprechende Literaturstudium deckte erhebliche Forschungsdefizite im Bereich der Belastungsanforderungen auf, was zunächst dazu führte, dass im Rahmen einer ersten Hauptuntersuchung eine Belastungsanalyse von Jugendbasketballspielen durchgeführt wurde. Nach der Entwicklung eines geeigneten wissenschaftlichen Beobachtungsinstruments, wurden allgemeine Spielmerkmale und Spielzeitstrukturen in je 20 Basketballspielen von Jungen- und Mädchenmannschaften der hessischen U16 Jugendoberliga (Saison 1999/00) systematisch beobachtet und ausgewertet. Beobachtungen von individuellen Belastungen und Spielleistungen erfolgten für jedes Geschlecht anhand von jeweils zehn Basketballspielen derselben Leistungs- und Altersklasse. Damit wurden in knapp 830 effektiven Spielminuten na. die zurückgelegten Laufstrecken, Sprunghäufigkeiten und die Anzahl der Ballaufsetzer (Dribbling) sowie die Anzahl von Pass-, Fang- und Wurfaktionen von jugendlichen Basketballspielern während eines Wettkampfspiels quantitativ erfasst. Die Beobachtungsergebnisse wurden in einem Belastungs- und Beanspruchungsprofil der Spielsportart Basketball mit den Ergebnissen von Forschungsarbeiten zur Beanspruchungsstruktur im Basketball zusammengefasst. Dies bildete gemeinsam mit der Analyse der Trainingsmöglichkeiten im BTI die Grundlage bei der Auswahl der zu untersuchenden konditionellen Fähigkeiten (Merkmalsstichprobe) und den dazu passenden Diagnosetests. Verschiedene kraftdiagnostische Testverfahren waren Teil einer ersten Erprobung des Diagnoseverfahrens im Rahmen einer Voruntersuchung, deren Erkenntnisse eine weitere Optimierung des Hauptdiagnoseverfahren möglich machten. Die zweite Hauptuntersuchung bestand aus fünf Diagnoseterminen, die in einem Abstand von sechs Monaten stattfanden. Die Diagnose der 15 ausgewählten Kraft-, Schnelligkeits- und Ausdauerfähigkeiten ermöglichte im Vergleich zu Normwerten eine detaillierte Einschätzung individueller Defizite der Versuchspersonen im Bereich der konditionellen Leistungsfähigkeit. Den Athleten wurde immer dann eine Trainingsempfehlung für einen Bereich ausgesprochen, wenn die individuelle Leistungsfähigkeit unter dem Richtwert lag. Zur Überprüfung der Trainingsergebnisse diente der darauf folgende Diagnosetermin als Ausgangsdiagnose. Anhand der Ergebnisse konnte durch verschiedene merkmalsinterne und merkmals-übergreifende Untersuchungen nachgewiesen werden, dass Leistungsdiagnosen und externe Trainingsempfehlungen durch Trainingsinstitutionen erfolgreich umgesetzt werden können. Damit helfen sie, das Konditionstraining von jugendlichen Mannschaftssportlern individuell zu differenzieren und zeitlich zu ökonomisieren. Dies hat, auch über das Konditionstraining hinaus positive Effekte auf die zeitliche und inhaltliche Gestaltung des Trainings. Es konnten bei allen Diagnosetests signifikante merkmalsinterne und merkmalsübergreifende Unterschiede der Leistungsentwicklungen zwischen Versuchspersonen mit und Versuchspersonen ohne Trainingsempfehlungen nachgewiesen werden, was auf eine erfolgreiche Individualisierung des Trainingsablaufs schließen lässt. Im Rahmen der diagnostischen Betreuung konnten zugunsten der zeitlichen Optimierung von individuellen Trainingsplänen ausreichende Leistungen konserviert werden und bei Versuchspersonen mit Leistungsdefiziten kam es zur Minimierung der Ist-Sollwert-Differenz. Zudem war eine signifikante Leistungshomogenisierung der Trainingsgruppen zu beobachten. Die diagnostische Betreuung ist nicht alleine auf die Diagnose von Leistungszuständen zu reduzieren, sondern umfasst in einem Planungs-, Steuerungs- und Regelungsprozess außerdem die begleitende Beratung der Trainingsinstitution. Das in dieser Forschungsarbeit beschriebene Modell zur diagnostischen Betreuung im Mannschaftsport bietet ein valides Mittel der Trainingssteuerung und ist über den Basketballsport hinaus übertragbar auf andere Mannschaftssportarten.
Schichten V/Al-Intermetallischer Phasen und Schichten aus V(Al) (Schichtdicken 150- 300 nm) wurden durch Interdiffusion von V/Al- und V5Al8/V-Mehrfachschichten bei 400-800°C im Vakuum bei 3 x 10-8 mbar hergestellt. Des Weiteren wurden V5Al8-Schichten durch Sputtern einer V5Al8-Legierung erzeugt. Die Gesamtstöchiometrie der Schichten lag zwischen Al0,86V0,14 und Al0,19V0,81. Als Substrat dienten einkristalline (012) Saphirwafer. Die V/Al-Intermetallischen Phasen und V(Al) wurden im RTP-System bei 600-1250°C mit NH 3 umgesetzt. Zum Vergleich der Reaktivität wurden die V/Al- und V5Al8/V-Mehrfachschichten auch ohne vorherige Vakuumtemperung in NH3 getempert. Die Proben wurden mittels XRD, SNMS, TEM/EFTEM, ESCA, XRR und AFM untersucht. Die V/Al-Mehrfachschichten besaßen eine starke Welligkeit, die von der starken Al-Schichtdickenschwankung herrührte. Trotz dieser Welligkeit zeigten die V- und Al-Schichten der V/Al-Mehrfachschicht eine ausgeprägte Textur. Die V-Schichten waren (110) und die Al-Schichten (111) texturiert. Die Bildung von (112) texturiertem Al3V erfolgte bereits bei 400°C, die Bildung von (110) texturiertem V 5Al8 und V(Al) bei 700°C. In der Nähe der Oberfläche durchmischten sich die V- und Al-Schichten aufgrund von O- und C-Einlagerung während der Vakuumtemperung nicht vollständig, und man beobachtete die Bildung von V-Oxiden. Je größer der V-Gehalt der Intermetallischen Verbindung bzw. V(Al), desto größer war die Reaktivität gegenüber Sauerstoff. Bei der Nitridierung der durch Interdiffusion gewonnen Intermetallischen Phasen Al3V und V5Al8 beobachtete man die Bildung von (001) texturiertem AlN an der Oberfläche. Durch die Nitridierung verarmte die Intermetallische Phase an Aluminium und es bildeten sich die V-reicheren Intermetallischen Verbindungen. Weitere Nitridierung führte zur Bildung von (001) texturiertem V2N. Bei der Nitridierung von V0,81(Al)0,19 bildete sich zunächst V(Al)(N), das bei weiterer Nitridierung zunächst in V2N und schließlich in VN und AlN überging. Das Reaktionsverhalten der Intermetallischen Phasen und der V(Al)-Phase stimmte weitestgehend mit dem von Yong Du et al. berechneten ternären Al/V/N-Phasendiagramm überein. Bei der Nitridierung von V0,61(Al)0,39 beobachtete man jedoch ebenfalls die Bildung von V2N. Dies widerspricht dem berechneten V/Al/N-Phasendiagramm, nachdem sich bei dieser Zusammensetzung auch AlN bilden sollte. Möglicherweise ist das Zweiphasengebiet V(Al)(N) + V2N breiter. Die Intermetallischen Phasen Al3V und V5Al8 zeigten im Vergleich zu reinem Vanadium eine stark verminderte Reaktivität gegenüber NH3. Dies ist auf die Passivierung der Oberfläche durch die AlN-Bildung zurückzuführen. Die ebenfalls schwächere Reaktivität der V(Al)-Phase lässt sich mit der geringen Löslichkeit an Stickstoff in V(Al) und der sehr wahrscheinlich höheren Aktivierungsenergie für die V2N-Bildung erklären. Die Reaktivität der V/Al-Mehrfachschichten war deutlich größer als die der Intermetallischen Phasen. Hierfür ist mit Sicherheit der höhere Anteil an Korngrenzendiffusion verantwortlich. Zum anderen könnte Vanadium die AlN-Bildung katalysieren. Bei der direkten Nitridierung wurde die oberste V-Schicht zu einer VN-Schicht umgesetzt. Die Nitridierung ist also nahe der Oberfläche schneller als die Interdiffusion der Metalle. In Richtung der Oberfläche beobachtete man eine stark ansteigende Al-Konzentration, wofür die im Vergleich zu VN höhere Freie Enthalpie von AlN verantwortlich ist. Durch das Sputtern einer V5Al8-Legierung konnte das Problem der Oxidbildung bei der Interdiffusion umgangen werden. Eine dünne Aluminiumoxidschicht bildete sich jedoch bereits schon bei der Lagerung an Luft. Die Reaktivität der gesputterten V5Al8-Schichten unterschied sich nicht wesentlich von der interdiffundierter V/Al-Mehrfachschichten vergleichbarer Stöchiometrie. Tiefenprofilanalysen an nitridierten V5Al8-Schichten machten deutlich, dass zwischen 600 und 900°C eine bemerkenswerte Menge an Sauerstoff in die AlN-Schicht eingebaut wurde. Ab 900°C stieg die Dicke der Aluminiumoxinitridschicht stark an. Eine weitere Temperaturerhöhung auf 1250°C führte zu keiner sign ifikanten Zunahme der AlN-Schichtdicke, jedoch zu einer starken Reduktion des O-Gehalts im AlN. Gleichzeitig beobachtete man bei 1250°C eine partielle Ablösung der AlN-Schicht.
Die Promotionsarbeit stellt sich die Aufgabe, den christlichen Missions- oder Sendungsbegriff in seinem nachkonziliaren Verständnis durch eigene Feldforschung empirisch zu überprüfen. Am Beispiel von überwiegend von Christen durchgeführter Entwicklungsarbeit mit Frauengruppen in Indien kann der v.a. geschichtlich belastete Missionsbegriff revidiert werden. Im Schnittfeld von Soziologie/Ethnologie einerseits und Praktischer sowie Systematischer Theologie andererseits stehend gliedert sich die Arbeit in drei große Teile: Theorie-Teil A. Untersuchung des bisherigen Missionsbegriffs, Empirie-Teil B. Theoriegenerierung aus den erhobenen Daten des Entwicklungsprojektes und Synthese-Teil C. Rückfragen aus der Projektanalyse an den christlichen Sendungsbegriff. Teil A diskutiert die mit dem Zweiten Vatikanum eingeläutete Wende des Missionsverständnisses weg von einer geographischen Begrenzung hin zu einer Wesensaktivität der Kirche und die teilweise Rücknahme dieses Neuverständnisses in nachkonziliaren kirchenamtlichen Dokumenten. Sodann wird das Verständnis von Mission bzw. christlicher Sendung in der heutigen theologischen Forschung unter Einschluss der indischen Theologie dargestellt. Gerade in Indien wird die historische Belastung des Begriffs Mission und zugleich ein Bedarf an missionarischen Handeln in Form von Zeugnis geben deutlich. Vier entscheidende Leitfragen, welche durch die Feldforschung zu beantworten sind, resultieren daraus: Wer betreibt Mission? Bei welcher Zielgruppe spricht man von Mission? Wie ist Mission einzugrenzen? Was ist eine missionarische Tätigkeit? Teil 3 wertet die Daten der Feldforschung in einem südindischen Dorf aus. Dabei gewährleistet die Methode der Grounded Theorie als reflexiv-parallel verlaufender Prozess der Datengewinnung, Datenauswertung und Dateninterpretation, dass theoretische Missionsansätze nicht als Hypothesen herangezogen werden. Die Datenanalyse orientiert sich an der rekonstruktiven Sozialforschung. Der Teil C diskutiert anhand der vier Leitfragen den Überschuß des bisherigen, in Teil A diskutierten Sendungsbegriffs, der im Projekt noch nicht zum Tragen kommt, und zugleich seine Mängel, welche die Projektauswertung aufzeigt. Daraus resultiert: (1) Die Identifikation mit dem christlichen Glauben beinhaltet per se eine missionarische Dimension, jeder Christ handelt also unbewusst missionarisch. (2) Dieses missionarische Handeln geschieht sowohl gegenüber Christen wie gegenüber Nicht-Christen, jedoch ist die Kommunikationsweise verschieden. (3) Deswegen wird zwischen innerer und äußerer Mission unterschieden: Äußere Mission findet überall dort statt, wo Christen mit Nicht-Christen kommunizieren. Sie endet gegebenenfalls bei deren freier Entscheidung für das Christ-sein. Dort, wo die äußere Mission zu einer Identifizierung mit dem Inhalt der christlichen Botschaft führt, beginnt die innere Mission, welche nie endet. (4) Insofern ist jedwedes bewusste und unbewusste, verbale und non-verbale Kommunizieren eines überzeugten Christen als missionarische Tätigkeit zu bezeichnen. Entsprechend wird Entwicklungsarbeit, von Christen durchgeführt, auch zu einer missionarischen Tätigkeit, sofern Christen aus ihrem Christ-sein heraus leben und handeln.
Die Niere stellt im Organismus einen der Hauptangriffspunkte für Toxine dar. Dies liegt zum einen in der Tatsache begründet, dass zahlreiche Substanzen renal eliminiert werden. Eine weitere Funktion der Niere ist die Regulation des Flüssigkeitsund Elektrolythaushaltes durch Rückresorption von Wasser, Ionen, Aminosäuren und Glucose. Dies führt zu einer Aufkonzentrierung des Primärharns und folglich werden für die zu eliminierenden Toxine im Harn normalerweise höhere Konzentrationen erreicht, als beispielsweise im Blutplasma. Ein Portfolio von verschiedenen metabolisierenden Enzymen, die hauptsächlich in der Niere auftreten, sorgt weiterhin dafür, dass einige der gefilterten Substanzen erst in der Niere eine Bioaktivierung zum Toxin erfahren. Es ist somit von grosser Bedeutung, geeignete Testsysteme zu entwickeln, mit denen die Nephrotoxizität von Arzneistoffen, Chemikalien und anderen Substanzen untersucht werden kann. Die globale Analyse der Genexpression mit Hilfe von Mikroarrays bietet die Möglichkeit, die Veränderungen in der Expression von mehreren Tausend Genen gleichzeitig in der Niere oder in renalen Zellkulturen nach der Einwirkung eines potenziellen Nephrotoxins zu untersuchen. Eines der Ziele dieser Arbeit bestand darin, diese vielversprechende Methode für den Einsatz bei der Untersuchung von Nephrotoxizität zu evaluieren. In diesem Zusammenhang sollte geklärt werden, inwiefern sich aus der Literatur bekannte Tatsachen über den Toxizitätsmechanismus bestimmter Nephrotoxine bestätigen lassen und ob Hinweise auf bisher unbekannte Aspekte bezüglich der Vermittlung der Nephrotoxizität der Nephrotoxine gewonnen werden können. Ein weiterer Bestandteil dieser Arbeit war es, ein Zellkulturmodell zu etablieren und zu charakterisieren, das es ermöglicht, Genexpressionsanalysen zur Untersuchung der Nephrotoxizität in vitro durchzuführen und das ausserdem mit in vivo vergleichbare Daten liefert. In verschiedenen Experimenten konnte nachgewiesen werden, dass eine Kultur primärer Zellen etabliert werden konnte, die die funktionellen Eigenschaften von proximalen Tubuluszellen zeigt und keine Verunreinigung mit anderen Zelltypen des Nierencortex aufweist. Weiterhin wurden die optimalen Bedingungen für die Durchführung von Expressionsanalysen mit dieser Zellkultur definiert. Im weiteren Verlauf der Arbeit wurden das Expressionsprofil von Ochratoxin A mit Hilfe von cDNA-Mikroarrays, sowie die Profile von Quecksilber-II-chlorid, Paraquat und Puromycin mit Hilfe von Oligonukleotid-Mikroarrays in vivo und in vitro untersucht und bewertet. Ein Vergleich der beiden verfügbaren Plattformen (cDNA-Mikroarrays und Oligonukleotid-Mikroarrays) mit der Echt-Zeit-PCR als unabhängiger Methode lieferte aufschlussreiche Erkenntnisse über ihre Vor- und Nachteile. Die Analyse der Genexpressionsveränderungen nach der Einwirkung von OTA, HgCl2, Paraquat und Puromycin zeigte, dass sich mit Hilfe des Genexpressionsprofils zahlreiche Erkenntnisse über den Toxizitätsmechanismus der Substanzen gewinnen lassen, die sowohl durch die histopathologischen Befunde als auch mit Hilfe der einschlägigen Literatur bestätigt werden konnten. Zum Teil konnten sogar bisher unbekannte Aspekte der nephrotoxischen Wirkungen der untersuchten Modell- Toxine aufgedeckt werden, wie zum Beispiel die verstärkte Induktion von Golgi- Transport-assoziierten Genen im Nierencortex der Ratte nach Behandlung mit Paraquat. Die Analyse des Genexpressionsprofils kann somit vielversprechende Hinweise für das umfassende Verständnis des Toxizitätsmechanismus von Nephrotoxinen liefern. Der Vergleich der Expressionsmuster von HgCl2, Paraquat und Puromycin machte weiterhin deutlich, dass es einerseits transkriptionelle Änderungen gibt, die für das jeweilige Toxin spezifisch waren, andererseits aber auch Expressionsmuster aufgezeigt werden konnten, die allen untersuchten Nephrotoxinen gemeinsam waren. Durch die Identifizierung solcher gemeinsamen Genexpressionsprofile aus einer Datenbank mit zahlreichen bekannten Nephrotoxinen, könnte es in Zukunft sogar möglich sein, die potenzielle Nephrotoxizität unbekannter Arzneistoffe oder Chemikalien mit Hilfe von Mikroarrays vorherzusagen oder beispielsweise aus mehreren Kandidaten für einen neuen Arzneistoff, denjenigen mit dem geringsten nephrotoxischen Potenzial bereits zu einem frühen Zeitpunkt der Entwicklung herauszufiltern.
Die Entwicklung von Wirkstoffträgern für Antisense-Oligdesoxyonukleotide auf der Basis von Protamin-Nanopartikeln stellt einen interessanten Ansatz für antivirale Strategien dar. So konnte gezeigt werden, dass bereits ab einem 1,5-fachen Massenüberschuss an Protamin eine spontane Komplexbildung mit Antisense-Wirkstoffen stattfindet, die einen Größenbereich von etwa 200 nm aufweisen und durch eine Oberflächenladung von ca. + 20 mV charakterisiert sind. Aufgrund dieser physikalischen Eigenschaften besitzen diese Nanopartikel nahezu ideale Eigenschaften, die intrazelluläre Verfügbarkeit von Antisense-Wirkstoffen entscheidend zu verbessern. Eine sehr gute zelluläre Aufnahme von Protamin/Antisense-Nanopartikeln konnte entsprechend in primären humanen Makrophagen als auch in lymphozytären T-Zellen gezeigt werden. Die Anwendung dieser Wirkstoffträger in den beschriebenen Zellen erwies sich dabei als sehr gut verträglich und zeigte keine toxischen Wirkungen in insgesamt drei unterschiedlichen Testverfahren zur Bestimmung der Zelltoxizität. Darüber hinaus konnte gezeigt werden, dass Protamin/Antisense-Nanopartikel mit unmodifizierten Antisense-Oligodesoxynukleotiden ein sehr günstiges intrazelluläres Auflösungsverhalten besitzen, was zu einer kontinuierlichen Freisetzung des inkorporierten Antisense- Wirkstoffs führte. Dabei wurde deutlich, dass nach spätestens 72 Stunden ein vollständiger Zerfall des Nanopartikels stattfand und der Wirkstoff sich gleichmäßig in intrazellulären Kompartimenten verteilte. Im Gegensatz dazu stellen Protamin/Antisense-Nanopartikel mit modifizierten Phosphorothioat-Wirkstoffen ein äußerst stabiles System dar, das zu keiner merklichen intrazellulären Wirkstofffreisetzung selbst nach 72 Stunden führte. Es konnte gezeigt werden, dass Protamin/AS-ODN-Nanopartikel die Expression eines von einem lentiviralen Vektor exprimierten Reportergens konzentrationsabhängig in primären humanen Makrophagen inhibieren konnte. Die antivirale Wirksamkeit dieser Wirkstoffträger konnte auch gegen das HIV-1-spezifische Transaktivatorprotein Tat in transient transfizierten Zielzellen der HIV-1-Infektion spezifisch demonstriert werden. Hier wurde eine selektive Inhibition der Tat-vermittelten Transaktivierung von 35 % bei einer Konzentration von 2 MikroM in Jurkat-Zellen nachgewiesen. Auch in primären Makrophagen, die mit einem HIV-1-Wildtypisolat infiziert wurden, führte die Anwendung von Protamin/AS-ODN-Nanopartikeln mit spezifischen Sequenzen gegen ein HIV-1-Gen zu einer deutliche Reduktion der Virusausbreitung in der Kultur. Bei einer wiederholten Behandlung von HIV-1-infizierten Makrophagen mit Protamin/AS-ODN-Nanopartikel in einer Konzentration von 2 MikroM zeigten nur einige wenige Zellen eine Infektion mit dem Virus, während sich in unbehandelten Zellen eine komplett durchinfizierte Kultur manifestiert hatte. Entsprechend der ungünstigen Bioverfügbarkeit von AS-PTO-Wirkstoffen nach intrazellulärem Transport in Form von Protamin-Nanopartikeln konnte für diese Formulierungen keine biologische Wirkung in Zellkultursystemen nachgewiesen werden. Die Inkorporation von destabilisierenden Zusätzen in die Nanopartikelmatrix bietet hier Möglichkeiten, die intrazelluläre Dekomplexierung dieser Wirkstoffträger günstig zu beeinflussen. Als Neuentwicklung konnte ein kolloidales Trägersystem für siRNA-Wirkstoffe auf der Basis von Protamin-Nanopartikeln entwickelt werden. Es konnte gezeigt werden, dass Protaminbase als auch Protaminsulfat siRNA-Wirkstoffe ab einem 2,5-fachen Massenüberschuss komplexieren. Protamin basierte Nanopartikel für siRNA-Wirkstoffe waren durch ein sehr günstiges Zellaufnahmeverhalten und fehlende zytotoxische Wirkung in primären humanen Makrophagen gekennzeichnet. Trotz dieser idealen Ausgangsbedingungen zeigten biologische Wirksamkeitstestungen sowohl gegen das endogene Protein Lamin A/C als auch virale Hemmversuche in HIV-1- infizierten primären Makrophagen nur marginale Effekte. Eine weitere Optimierung der Nanopartikelzusammensetzung und Untersuchungen zur intrazellulären Stabilität sind nötig, um die biologische Aktivität dieser Formulierungen entscheidend zu verbessern. Oberflächenmodifizierte Nanopartikel auf der Basis von Gelatine erwiesen sich in den durchgeführten Experimente als besonders vielversprechend. Hier konnte gezeigt werden, dass ein spezifisches Targeting von T-Zellen mit CD3-Gelatine-Nanopartikel realisiert werden kann, die auf ihrer Oberfläche kovalent einen anti-CD3-Antikörper tragen, der gegen die T-Zell spezifische Zeta-Kette des T-Zell-Rezeptor-Komplexes gerichtet ist. Untersuchungen mit konfokaler Mikroskopie und Durchflusszytometrie zeigten, dass dabei die Zellaufnahme dieser Wirkstoffträger von der Expression des durch den Antikörper erkannten Zielantigens auf der Oberfläche der Zielzellen ist. In Zellen mit besonders starker Expression des CD3-Epitops wurden Gelatine-Nanopartikel mit oberflächengebundenem anti-CD3-Antikörper zu einem sehr bedeutendem Ausmaß selektiv aufgenommen. In Kompetitionsexperimenten mit freiem anti-CD3-Antikörper konnte diese Aufnahme deutlich reduziert werden, was für die selektive Bindung und Internalisierung der CD3-Gelatine- Nanopartikel über den oberflächengebundenen Antikörper schließen läßt. Durch diese Untersuchungen konnte gezeigt werden, dass CD3-Gelatine-Nanopartikel das Potential besitzen, als selektives Wirkstoffträgersystem für T-Zellen eingesetzt zu werden.
In der vorliegenden Arbeit wurde nachgewiesen, dass bei Krebspatienten Tumorspezifische Gedächtnis T-Zellen im Verlauf einer Tumorerkrankung generiert und erhalten werden. Dies konnte sowohl für einen soliden Tumor, das Mammakarzinom, als auch für eine hämatologische Neoplasie, das Multiple Myelom, verifiziert werden. Dabei konnte zum ersten Mal belegt werden, dass im Verlauf einer MM-Erkrankung MUC-1 als autologes Tumor-assoziiertes Antigen immunologisch erkannt wird und zur Generierung von Gedächtnis T-Zellen mit einer Anreicherung im Knochenmark der Patienten führt. Weiterhin konnte eine Anreicherung TAA-spezifischer Gedächtnis T-Zellen innerhalb der EM Zellpopulation bei Mammakarzinom-Patientinnen demonstriert werden. Die Analyse der Funktionalität und Langlebigkeit von EM und CM T-Zellen im Hinblick auf ihre klinische Relevanz zeigte wesentliche Unterschiede zwischen beiden Gedächtniszell- Populationen. So war eine IFN-gamma Induktion und Proliferation in CM T-Zellen in stärkerem Ausmaß von einer zusätzlichen Costimulation abhängig verglichen zu EM T-Zellen. Außerdem fiel eine Apoptose-Induktion in CM stärker aus als in EM T-Zellen. Unterschiede in Funktion und Viabilität von CM und EM T-Zellen korrelierten dabei mit der Expression des Chemokinrezeptors CCR7. ELISpot-Analysen der Polarisierung induzierter TH-Antworten beim Mammakarzinom ergaben eine große Heterogenität zwischen den Patienten. So exhibierte ein Teil der Patienten dominante TH1-Antworten, während bei einem anderen Teil lediglich TH2- oder toleranzinduzierende IL-10-Antworten induziert werden konnten. Darüber hinaus traten auch gemischt-polarisierte TH-Antworten auf. Eine Analyse ausgewählter Zytokine resultierte in der Detektion immunsuppressiver und immunstimulatorischer Zytokine im Tumorgewebe, wobei die Zytokinprofile interindividuell stark schwankten und kein einheitliches Muster erkennen ließen. Interessanterweise bestand jedoch eine inverse Korrelation zwischen der Induktion einer TH1-Antwort im ELISpot und dem erhöhten Vorkommen immunsuppressiver Zytokine im autologen Tumorgewebe von Mammakarzinom-Patienten. Eine derartige Korrelation impliziert, dass das vorherrschende Milieu der Tumorumgebung bei einer tumorspezifischen Aktivierung einen Einfluss auf infiltrierende Dendritische Zellen und ihre nachfolgende Polarisierung von T-Zellantworten hat. Folglich könnte die Untersuchung eines breiten Spektrums an Zytokinen in der Tumor-Mikroumgebung zu relevanten Zeitpunkten einer Tumorentwicklung, einen wichtigen Beitrag zum Verständnis von Tumor-Immun Interaktionen liefern.
Die Gruppe der T-Lymphozyten beinhaltet je nach Ausprägung des T-Zell-Rezeptors zwei Zell-Populationen, die der Alpha-beta- beziehungsweise der Gamma-delta-T-Zellen. Diese Arbeit beschäftigt sich mit den Gamma-delta-T-Zellen, da sie eine außerordentlich interessante und wenig erforschte Zellgruppe darstellen. Die Beobachtung einer bevorzugten Anreicherung von Gamma-delta-T-Zellen auf mukosalen Oberflächen, die mit einer Vielzahl von Antigenen konfrontiert sind, hat zur Hypothese geführt, dass Gamma-delta-T-Zellen eine "erste Garde der Immunabwehr" bilden. Des weiteren geben zahlreiche Studienergebnisse Hinweise darauf, dass Gamma-delta-T-Zellen an der Pathogenese vieler Krankheiten, wie z. B. den chronisch entzündlichen Darmerkrankungen, beteiligt sind. Als Mitglied des Immunsystems scheinen Gamma-delta-T-Zellen nicht nur Funktionen sowohl der angeborenen als auch der erworbenen Immunabwehr wahrzunehmen, sondern auch eine Vermittlerrolle zwischen beidem zu spielen. Mit der Intention, ein grosses Tiermodel zu etablieren, um anhand dessen die Beeinflussbarkeit der Gamma-delta-T-Zellen durch die Alterung und durch mikrobielle Faktoren besser analysieren zu können, wurde in vorhergehenden Studien die postnatale Entwicklung des Gamma-delta-T-Zell-Rezeptor(TCR)-Repertoires des Schweins charakterisiert und der von Menschen als sehr ähnlich befunden. Somit war die Verwendung des Schweins als Tiermodell zur weiteren Erforschung der Gamma-delta-T-Zellen gerechtfertigt. In dieser Arbeit richteten wir unser Augenmerk zum einen auf die pränatale Entwicklung des TCR-delta-Repertoires des Schweins, zum anderen darauf, welchen Einfluß Mikroorganismen auf das postnatale TCR-delta-Repertoire des Schweins nehmen. Auf diese Weise sollte die Frage beantwortet werden, ob Fremd- oder Eigenantigene die Selektion und konsekutive Expansion bestimmter Gamma-delta-T-Zellklone in der Postnatalperiode bedingen. Hinsichtlich dieser Fragestellungen führten wir Experimente mit unterschiedlichen Gewebeproben des Schweins durch. Für die Untersuchung der pränatalen Entwicklung des TCR-delta-Repertoires verwendeten wir Gewebeproben von Schweinefeten unterschiedlichen Alters (38.Tag bis 114. Tag der Tragzeit), die aus den verschiedenen Organen stammten: Dünn- und Dickdarm, Leber, Milz und Thymus. Zusätzlich wurden Zellen des Knochenmarks und des peripheren Blutes untersucht. Für die Untersuchungen zum Einfluß durch Mikroorganismen auf das postnatale TCR-delta-Repertoire dienten uns Proben von 10 Wochen alten Schweinen, die unter keimfreien (GF) bzw. spezifisch-Pathogen-freien (SPF) Bedingungen aufgezogen wurden. Die Proben wurden aus Dünn- und Dickdarm, mesenterialen Lymphknoten, Milz und Thymus entnommen. Die Amplifikation der TCRDV1-DV5 Transkripte erfolgte mittels RT-PCR, woran sich eine längenabhängige Auftrennung durch denaturierende Polyacrylamidgel-Elektrophorese (CDR3 Längenanalyse) anschloß. Einzelne dominante Banden wurden aus den Gelen ausgeschnitten, reamplifiziert, teilweise kloniert und anschließend sequenziert. Unsere Experimente zur pränatalen Entwicklung ergaben, daß das TCR-delta-Repertoire während der frühen Fetalzeit eingeschränkt war und bei Geburt Polyklonalität aufwies. Die durchschnittliche CDR3 Länge der Transkripte nahm während der Ontogenese zu, was auf eine zunehmende Aktivität des Enzyms TdT schließen läßt. Die zentrale Entdeckung dieser Versuche stellt das invariable DV3 Transkript dar, das in allen Feten während der frühen Gestation (38. Tag der Tragzeit) bis hin zur Geburt (114. Tag der Tragzeit) vorhanden war. Während der Mitte der Gestation, etwa um den 55. Tag der Tragzeit, dominierte dieses invariable DV3 Transkript alle analysierten Organe. Gegen Ende der Gestation, also etwa vom 90. Tag bis zum 114. Tag der Tragzeit, verlor dieses Trankript an Dominanz. Gleichzeitig wurde es aber noch häufig in peripheren Organen wie dem Darm und der Milz gefunden. Im Thymus hingegen konnte es zu dieser Zeit nicht mehr nachgewiesen werden. Diese Beobachtung läßt vermuten, daß die invariable DV3 Kette gegen Ende der Gestation im Thymus nicht mehr länger entsteht, wohingegen Gamma-delta-T-Zellen, die diese invariable Kette tragen, in der Peripherie "überleben". Die Tatsache, daß kein anderes invariables TCR-delta-Transkript, welches in verschiedenen Feten präsent gewesen wäre, identifiziert werden konnte, führt zur Annahme, daß den Gamma-delta-T-Zellen, die diesen Rezeptor expremieren, eine einzigartige Rolle zukommen könnte. Zusammenfassend läßt sich sagen, daß die pränatale Entwicklung des TCR-delta-Repertoires des Schweins dem des Menschen ähnlich ist. Es ist jedoch anzumerken, daß beim Menschen kein TCR-delta-Transkript existiert, das das fetale Repertoire in gleicher Weise dominiert. Es bedarf weiterer Untersuchungen in der Zukunft, um die Frage zu klären, ob es sich bei dem invariablen DV3 Transkript des Schweins um das Ergebnis eines vorprogrammierten Rearrangements und/oder einer Selektion durch Eigenantige handelt, ferner, welche wichtige Funktion es während der fetalen Entwicklung erfüllt. Unsere Untersuchungen zum Einfluß durch Mikroorganismen auf das postnatale TCR-delta-Repertoire ergaben keine signifikante Differenz zwischen dem postnatalen TCR-delta-Repertoire von 10 Wochen alten keimfreien (GF) bzw. spezifisch-Pathogen-freien (SPF) Schweinen und dem bereits in Vorarbeiten beschriebenen Repertoire von gleichaltrigen konventionellen Schweinen. Diese Beobachtung veranlasst zur Annahme, daß eine Selektion bestimmter Gamma-delta-T-Zellen eher durch Eigenantige als durch Fremdantigene (z. B. Mikroorganismen) hervorgerufen werden könnte.
Das humane Genom besteht zu etwa 8% aus retroviralen Sequenzen. Davon sind ca. 1-2% dem humanen endogenen Retrovirus K (HERV-K) zuzuordnen. Das Virus ist mit ca. 30-50 Proviren und ca. 10.000 sLTRs im humanen Genom vertreten. HERV-K besitzt intakte ORFs für alle retroviralen Proteine und zusätzlich ein ORF für das akzessorische Protein Rec. Obwohl eine basale Transkription in verschiedenen Geweben nachgewiesen werden konnte, ist eine Expression von HERV-K Proteinen und Viruspartikeln nur in Keimzelltumoren nachgewiesen worden. In dieser Arbeit wurde die transkriptionelle Regulation des gewebespezifischen Promotors von HERV-K näher charakterisiert. Hierbei wurden regulatorisch wichtige Sequenzen mit Hilfe des Luziferase-Assays eingegrenzt. Transkriptionell sensitive Regionen wurden daraufhin im EMSA auf die Bindung von Transkriptionsfaktoren untersucht. Durch transiente Transfektionen von Luziferasereporterkonstrukten in verschiedenen Zelllinien stellte sich heraus, dass HERV-K LTRs in Keimzelltumorzellen aktiv sind, dass es aber auch inaktive LTRs gibt, die im Zuge der Evolution durch Punktmutationen ihre transkriptionelle Aktivität verloren haben. Aktive und inaktive LTRs unterscheiden sich durch Punktmutationen, die sich in verschiedenen Sequenzabschnitten häufen. Chimäre Konstrukte aus aktiven und inaktiven Sequenzabschnitten und gezielte Mutationen und Deletionen in aktiven HERV-K LTRs enthüllten verschiedene DNA-Bereiche, die transkriptionelle Sensitivität aufweisen. Die LTR-Bereiche bps 572-578, bps 757-798 und bps 809-823 waren im Aktivitäts-Assay besonders empfindlich gegenüber Mutation. In diesen Bereichen liegen zum einen GC/GT-Boxen, also Konsensussequenzen für die Transkriptionsfaktoren Sp1 und Sp3, zum anderen Konsensussequenzen für ein Inr und ein DPE. Das Binden von Sp1 und Sp3 auf den GC/GT-Boxen der bps 757-798 konnte durch eine EMSA-Analyse bewiesen werden. Der transkriptionell sensitive Bereich der bps 572-578 weist eine weitere putative GC/GT-Box auf. Die TATA-Box bei bp 532 zeigte sich unempfindlich gegenüber Mutation. Eine Beteiligung dieser Konsensussequenz am basalen Promotor wurde deshalb ausgeschlossen. Unterstützt durch die Ergebnisse einer 5’-RACE, ein Verfahren, dass den Transkriptionsstart eines bestimmten Gens bestimmen kann, konnte gezeigt werden, dass der basale HERV-K Promotor aus Konsensusequenzen für die Transkriptionsfaktoren Sp1 und Sp3 , einem Inr und einem DPE besteht. Sp1 und Sp3 sind ubiquitäre Transkriptionsfaktoren, die durch ihr Mengenverhältnis in einem bestimmten Gewebe oder durch posttranslationale Modifikationen unterschiedliche Auswirkungen auf die Transkription haben können. Diese Eigenschaften könnten zur Gewebespezifität von HERV-K beitragen. Die Core Promotor Komponenten Inr und DPE sind für die korrekte Positionierung von TFIID und damit der PolII verantwortlich. Des weiteren wurde eine starke Beteiligung des Testis-spezifischen Transkriptionsfaktors SRY an der Transkription von HERV-K belegt. Im Luziferase-Assay konnte ein SRY-Expressionsplasmid die Transkription eines aktiven LTRs in GH- wie auch in HeLa-Zellen steigern. Ein Indiz dafür, dass es sich um einen für die Transkription von HERV-K essentiellen Faktor handelt. Verschiedene SRY-Konsensussequenzen auf der HERV-K LTR machen eine Wirkung in cis wahrscheinlich, doch könnte auch in trans ein für die Transkription wichtiger Transkriptionsfaktor in seiner Expression verstärkt werden. Ebenfalls konnte bewiesen werden, dass epigenetische Mechanismen eine starke Rolle bei der Transkription von HERV-K spielen. Die Methylierung eines LTR-haltigen Luziferase-Reportervektors führte zum fast vollständigen Verlust der transkriptionellen Aktivität. Es bleibt abzuwarten, in welcher Weise die Schlüsselkomponenten Sp1, Sp3, SRY und Hypermethylierung des HERV-K Genoms zur Gewebespezifität von HERV-K beitragen.
Die vorliegende Arbeit beschäftigt sich mit der Modellierung der neuronalen Prozesse, die auditorischen Lokalisationsleistungen zugrunde liegen. Viele der hierzu aktuell diskutierten Modellvorstellungen lassen sich auf ein von L. Jeffress bereits in der Mitte des letzten Jahrhunderts vorgeschlagenes Netzwerkmodell zurückführen: Nach Jeffress werden interaurale Laufzeitunterschiede (ITDs) zwischen beiden auditorischen Pfaden in einem Netzwerk von Detektorneuronen (Koinzidenzdetektoren) ausgewertet. Systematische Laufzeitunterschiede resultieren aus der Architektur des Netzwerks, die sogenannte Delay-Lines realisieren soll. Trotz einer Reihe von Evidenzen für das im auditorischen Diskurs inzwischen als Paradigma geltende Modell, findet Kritik am Jeffress-Modell in jüngerer Zeit zunehmend Beachtung und Interesse. So argumentieren B. Grothe und D. McAlpine gegen die Übertragung des Delay-Line Modells auf die Verhältnisse bei Säugern. Zentrales Moment ihrer Kritik ist eine Afferenz der MSO aus einem weiteren Teilgebiet der Olive (MNTB). Wesentlicher Effekt der von der Projektion gebildeten inhibitorischen Synapse ist eine relative Verschiebung der Best-Delays der MSO-Zellen zur Präferenz contralateraler Delays. Damit besteht nicht nur zu der nach dem Jeffress-Modell notwendigen Aufteilung der Best-Delays ein Widerspruch, die ITDs liegen bei tiefen Frequenzen für kleine Säuger aufgrund deren geringer Kopfgröße außerhalb des Bereichs physiologisch auftretender Delays. In dieser Arbeit werden die Ergebnisse von Grothe und McAlpine durch Compartmental Modeling analysiert. Gegenüber einer Simulationsstudie aus den Gruppen von Grothe und McAlpine werden von uns durch explizite Modellierung der Dendriten zusätzliche Effekte der Inhibiton beschrieben. Wir stellen dar, wie die Topographie von Inhibiton und Excitation die Verarbeitungsprozesse in Bipolar-Zellen durch dendritische Low-Pass Filterung und Kontrastverst ärkung zwischen minimaler und maximaler Spikerate unterstützt. Unsere Ergebnisse können die empirisch nachgewiesene Verteilung excitatorischer (distaler) und inhibitorische (proximaler) Synapsen erklären. In der abschliessenden Analyse der von den Bipolar-Zellen generierten Spike Trains wird das von Grothe und McAlpine entworfene alternative ITD-Codierungsmodell auf der Basis von Ratencodes problematisiert: Bislang erklärt ihr Vorschlag nicht, wie organismische Lokalisationsleistungen auf der Basis weniger Spikes realisiert werden können.
Thema dieser Arbeit ist die vergleichende Darstellung der Lokalsysteme des Bibliotheksverbundes von Hessen und Rheinhessen, HeBIS. Nach einem knappen Überblick über Arten von Verbundsystemen und einem Kapitel zu Geschichte und Struktur des HeBIS-Verbundes sowie zur Zusammenarbeit der Lokalsysteme werden die sechs Lokalsysteme im Detail einzeln vorgestellt. Die abschließende Abwägung der Gemeinsamkeiten und Unterschiede kommt zu dem Ergebnis, dass die Lokalsysteme in vielerlei Hinsicht heterogen sind und sich insbesondere Struktur, Ausstattung und Aufgaben deutlich unterscheiden.
Ziel dieser Arbeit war die Entwicklung eines Mess-Systems zur energie- und winkelaufgelösten Spektroskopie von koinzidenten Elektronenpaaren, die in Reaktionen an einer Oberfläche emittiert wurden. Das Hauptinteresse galt hierbei dem Zwei-Elektronen-Photoemissionsprozess an Oberflächen. Das Prinzip des Spektrometers stellt eine Erweiterung der existierenden COLTRIMS-Spektrometer (COld Target Recoil Ion Momentum Spectroscopy) für Gasphasen-Experimente auf den Themenkreis der Oberflächenphysik dar. Anders als bei den in der Photoelektronen-Spektroskopie häufig eingesetzten elektrostatischen Analysatoren, wird hier eine Flugzeittechnik verwendet. Die Elektronen, die in der Reaktion erzeugt wurden, werden h ierzu mit einem schwachen homogenen elektrostatischen Feld vom Target abgesaugt und in Richtung eines orts- und zeitauflösenden Detektors beschleunigt. Zusätzlich wird ein homogenes Magnetfeld überlagert, das einen Einschluss der Elektronen bis zu einem maximalen Transversal-Impuls gewährleistet. Durch Messung der Flugzeiten und Auftrefforte auf dem Detektor können - unter Kenntnis d er elektrischen und magnetischen Feldstärken - die Startimpulse der Elektronen rekonstruiert werden. Auf diese Weise konnten Elektronen von 0 eV bis zu 50 eV mit einem Raumwinkel von nahezu 2p gleichzeitig abgebildet werden. Durch diesen sehr großen Aktzeptanzbereich, konnte eine wesentliche Erhöhung der Koinzidenzeffizienz der Anordnung gegenüber anderen Systemen erreicht werden (> 10 hoch 2 - 10 hoch 6 je nach Mess-System). Wesentlich hierfür ist des weiteren die Fähigkeit des Detektors mehrere Treffer mit verschwindender Totzeit zu verarbeiten. Mit dem beschriebenen System wurde die Zwei-Elektronen-Photoemission an Oberflächen untersucht. Die Experimente hierzu wurden im wesentlichen am Hamburger Synchrotron Strahlungslabor (HASYLAB) durchgeführt. Als Target wurde die (111)-Oberfläche eines einkristallines Kupfer-Targets verwendet. Mehrere Messreihen mit Photonenenergien im Bereich h? = 40 eV bis h? = 100 eV wurden aufgezeichnet. Durch die vollständige Vermessung des gesamten Impulsraumes der beiden Elektronen, stellt dies die erste kinematisch vollständige Untersuchung (bis auf die Spin-Freiheitsgrade) der Zwei-Elektronen-Photoemission an Oberflächen dar. Im Anschluss an vorangegangene Experimente [HER98], konnte auch hier in den Zwei-Elektronen-Energieverteilungen (innerhalb der experimentellen Auflösung) als Maximal-Energie des Paares der Wert E1 + E2 = h? - 2W0 festgestellt werden, der auf eine Selbst-Faltung der Bänder für die Zwei-Elektronen-Photoemission hindeutet. Die Form der Spektren wird wesentlich durch das Transmissionsverhalten der Elektronen beim Durchgang durch die Oberfläche bestimmt. Die auftretende energieabhängige Brechung der Trajektorie führt dabei zu einer starken Unterdrückung niederenergetischer Elektronen. In der Betrachtung der Kinematik der Emission konnten deutliche Analogien des Effektes zum analogen Prozess der Doppel-Photoionisation an freien Atomen bzw. Molekülen gefunden werden. Die Bewegung des Schwerpunktsimpulses des Paares ist daher durch die Richtung des Polarisationsvektor des Lichtes bestimmt. Im Gegensatz zur Emission am freien System, tritt hier allerdings - je nach Orientierung des Polarisationsvektors - ein Symmetriebruch auf, da Elektronen entweder auf die Oberfläche zu oder von ihr weg emittiert werden. Ein Bruchteil der in den Festkörper emittierten Intensität kann schließlich wieder am Gitter reflektiert werden und die Oberflächenbarriere noch überwinden. Die Energie- und Winkelverteilungen der Elektronen zeigen, dass, je nach Energieaufteilung des Paares, zwischen den Beiträgen durch einen "shake-off"-Mechanismus und einem "knock-out"-Mechanismus unterschieden werden kann. Auch hierin zeigt sich eine Ähnlichkeit des Zwei-Elektronen-Photoemissionsprozesses an Oberflächen mit der Doppel-Ionisation von Helium-Atomen. Während bei der Doppel-Ionisation von Helium diese Unterscheidung allerdings erst bei höheren Photonenenergien (> 100 eV) möglich ist, kann hier schon bei ca. 60 eV zwischen beiden Prozessen getrennt werden. Der Grund hierfür liegt sehr wahrscheinlich in der Abschirmung der Elektronen im Festkörper begründet, die die direkte Coulomb-Wechselwirkung der Elektronen im Endzustand reduziert. Insbesondere der starke Beitrag des "shake-off"-artigen Prozesses ist ein deutlicher Hinweis darauf, dass die gegenwärtigen theoretischen Modelle zur Beschreibung der Zwei-Elektronen-Photoemission nicht ausreichend sein können, da nur die Wechselwirkung im End-Zustand berücksichtigt wird. Vielmehr ist die Einbeziehung von Grundzustandswellenfunktionen jenseits des Bildes unabhängiger Teilchen nötig.
In dieser Arbeit soll eine Religionstheorie entwickelt werden, die für den interdisziplinären Dialog über Religion und auch für die empirische Forschung neue Impulse gibt. Die Begriffe "Religion" und "Religiosität", die dabei eine zentrale Rolle spielen, sind nicht leicht handhabbar, für eine Religionspsychologie jedoch unverzichtbar. In der vorliegenden Arbeit wird der Begriff "Religion" verwendet, soweit es um bestimmte, institutionalisierte Aspekte geht, während "Religiosität" für die Erlebens- und Handlungsaspekte des einzelnen Menschen verwendet wird. Es ist jedoch nicht immer möglich, zwischen den beiden Begriffen streng zu unterscheiden. Darüber hinaus ist es wichtig, zwischen Ideologie und Religion zu unterscheiden. Gerade Fromms weit gefasste Religionsdefinition, die diese Differenzierung bewusst ablehnt, hat zu vielen Problemen und Kontroversen geführt. Eine Differenzierung ist jedoch schwierig, vor allem deswegen, weil der Begriff "Ideologie" vieldeutig verwendet wird. Dennoch lässt sich festhalten, dass Ideologien moderne Gebilde sind, die eine bereits existierende bürgerliche Gesellschaft voraussetzen. Diese modernen Denksysteme werden auf der Grundlage des abendländischen Geschichtsbewusstseins entwickelt und beziehen sich auf noch zu verwirklichende Utopien. Insofern sind Ideologien als Programme für eine bessere Welt zu verstehen. Religionen dagegen müssen weder eine geschichtliche Entwicklung postulieren noch eine Utopie anstreben. Obwohl Religionen bisweilen ideologische Züge aufweisen, ist es vor diesem Hintergrund doch möglich, zwischen Ideologie und Religion zu differenzieren. Eine neue Religionstheorie soll bestehende funktionale, substanzielle und anlageorientierte Ansätze in einen neuen theoretischen Rahmen integrieren und somit neue Impulse für die Forschung in den Bereichen Religion und Gesundheit, religiöse Entwicklung und religiöse Erfahrung geben. Gegenstand der vorliegenden Untersuchung ist ein vorempirischer Fragenkomplex bezüglich der anthropologischen und wissenschaftstheoretischen Vorannahmen einer Religionspsychologie. Dabei besteht die Aufgabe in der Erarbeitung einer Religionstheorie, die diese Vorannahmen logisch begründet und empirisch überprüfbar formuliert. Hier wird weder eine richtungsspezifische (z.B. psychoanalytische oder behavioristische) noch eine teilgebietsorientierte Vorgehensweise gewählt, sondern es wird im Hinblick auf den interdisziplinären Anspruch der Arbeit versucht, mit Rückgriff auf die dialogische Anthropologie Martin Bubers einen für die Psychologie neuen relationalen Zugang zum Forschungsgegenstand zu finden und logisch zu überprüfen. Die in dieser Arbeit entwickelte relationale Grundlage für eine Religionspsychologie soll auch einen einheitlichen Bezugsrahmen für die bisherige fragmentarische religionspsychologische Forschung liefern.
Auswertungen der Ausgrabungen von Oursi, Oursi Village und Saouga führten zu einer zeitlichen Gliederung der keramischen Fundinventare. Anhand von Entwicklungen in Keramikform, -herstellung und -verzierung wurden drei Phasen unterschieden. Die frühe Eisenzeit, die zeitlich in einen Bereich von Christi Geburt bis zur Mitte des ersten nachchristlichen Jahrtausends einzuordnen ist, zeichnet sich durch die Verzierung der Randpartie mit Riefen, Ritzverzierungen auf dem Gefäßkörper in Kombination mit anderen Verzierungselementen und durch Einführung der Topfform aus. Diese Elemente unterscheiden sie von der Keramik der Endsteinzeit. Der polierte Kammstich ist das neue Verzierungselement der mittleren Eisenzeit. Um 1000 AD beginnt die späte Eisenzeit. Sie wird bis in das 14. Jahrhundert auf den Siedlungshügeln des Oudalan nachgewiesen. Mit der Einführung des Verzierungselementes "Bastroulette" sowie der Gefäßformen Flasche mit Deckel, Siebgefäße und Dreibeingefäße wird das bisherige Keramikspektrum erweitert. Bei Begehungen im Oudalan, der nördlichsten Provinz des Landes, wurden Siedlungshügel entdeckt, die an der Oberfläche die jeweils typischen Keramikelemente der eisenzeitlichen Epochen aufweisen. Die letzte Besiedlungsphase dieser Siedlungshügel läßt sich demnach ebenfalls chronologisch einordnen. Das Besiedlungsmuster während der Eisenzeit zeigt eine Bevorzugung von fruchtbaren Böden, die auf den Dünenzügen und am Fuß der Inselberge verfügbar waren, sowie die Nähe von Wasser für die Wahl des Siedlungsplatzes. Dort siedelten Menschen über lange Zeit am selben Ort. Das führte zur Akkumulation von Siedlungsabfällen und damit zur Bildung von Siedlungshügeln. Die Wirtschaftsweise während der Eisenzeit bestand aus Herstellung und Verarbeitung von Eisen. In der Eisenzeit wurde Hirse angebaut sowie Vieh gehalten (Schaf, Ziege und Rind). Darüber hinaus erweiterte das Sammeln von wilden Früchten und Samen und der Fischfang das Nahrungsangebot zur damaligen Zeit. Die Besiedlungskontinuität über 14 Jahrhunderte während der Eisenzeit des Oudalan findet im überregionalen Kontext Entsprechungen. Bei Vergleichen der Siedlungsform und der Keramikverzierung des nördlichen Burkina Faso mit anderen Regionen werden die Beziehungen zwischen den Gruppen der Savannenbevölkerung von Westafrika, aber besonders zum Bereich des Nigerbogens im südlichen Mali deutlich. Die vielfältigen Parallelen innerhalb des Fundgutes des Oudalan und des südlichen Mali vermitteln während der Eisenzeit den Eindruck einer Epoche der Stabilität, in der sich über lange Zeiträume Siedlungen entwickelten und expandierten. Auch der Austausch von Gütern mit den ländlicheren Gegenden, wie dem Oudalan, war zu dieser Zeit genauso intensiv wie mit denjenigen der Handelsrouten. Die Eisenzeit in den Savannen Westafrikas weist durch die Siedlungshügel und durch die Verwendung der unterschiedlichsten Rouletteformen als Keramikverzierung, die gleichsam als Leitform betrachtet werden können, eine einheitliche Erscheinungsform auf, die wahrscheinlich erst durch politische Umwälzungen in weiten Teilen Westafrikas um das 14. Jahrhundert zu einem Ende kam.
Gegenstand der vorliegenden Studie war die Frage, in wie weit Bedingungen eines Langstreckenfluges eine Aktivierung des Gerinnungssystems beeinflussen. Dazu wurden 70 Probanden, davon je 25 Probanden mit einer bekannten APC-Resistenz ohne Thromboseanamnese, 20 Probanden mit APC-Resistenz und einer Thrombose in der Anamnese sowie eine gesunden Kontrollgruppe zu 25 Probanden, in einer nicht signifikant unterschiedlichen Altersverteilung von 18-25 Jahren, 25-40 Jahren, 40-60 Jahren und 60-70 Jahren, im Verlauf eines simulierten Langstreckenfluges von insgesamt 12 Stunden bei einer Unterdruckbedingung von bis zu 0,8 bar untersucht. Die Geschlechteraufteilung innerhalb der Gruppen war nahezu homogen und nicht signifikant unterschiedlich. Zur Flugsimulation wurde der Luftdruck innerhalb von 30 Minuten auf 0,87 bar gesenkt, entsprechend eines Kabinendruckes von etwa 1300 m, nach 7,5 Stunden auf 0,8 bar bzw. eines Kabinendruckes von 2000 m reduziert um nach Ablauf von 3,5 Stunden innerhalb von 30 Minuten wieder auf 1 bar erhöht zu werden. Diese Druckänderungen entsprechen einem Langstreckenflug bei dem nach ca. 7-8 Stunden die Flughöhe von 10 000 Meter auf ca. 12 000 Meter ansteigt. Ursache hierfür ist der Gewichtsverlust nach Verbrauch des Treibstoffes. Nach 48 Stunden fanden sich die Probanden zur Nachuntersuchung ein. Die Studie fand am Zentrum für Sauerstoffüberdrucktherapie-, Tauch- und Höhenmedizin an der Orthopädischen Universitätsklinik Frankfurt am Main Friedrichsheim statt. Neben BMI-Werten und allgemeinem Blutbild wurden folgende primäre Bewertungsparameter bestimmt: 1. PAI-Aktivität nach dem Prinzip der Inaktivierung vorgelegter Urokinase (Methode OWOA G15 C0532 (1094) H 2), 2. D-Dimeren-Konzentration nach dem Prinzip der Agglutinierung von Polystyrolteilchen über einen monoklonalen Antikörper (DD5) in Gegenwart von D-Dimeren gemäß der Labormethode OQWW G11 C0533 (675) W 2, 3. Prothrombinfragment F1-F2 über Kaninchen-Antikörper gegenüber Human-F1-F2 nach ELISA Enzygnost 1-2 (Boehringer Mannheim) 4. von-Willebrand-Faktor mittels vWF:Ag ELISA-Test (Rabbit Anti-Human von Willebrand Factor P0226 von Dako A/S, Glostrup, Dänemark sowie Peroxidase-Conjugated Rabbit Anti-Human von Willebrand Factor A 0082). Gemessen wurde nach 2, 6, 9, 12 und 48 Stunden. Die statistische Bewertung erfolgte mittel ANOVA, Chi-Quadrat-Test sowie Wilcoxon-Test. Ein Patient wurde nach 36 Stunden aufgrund des Verdachts einer TVT und anschließender Lungenembolie stationär behandelt. Dieser Patient gehörte zur Gruppe der APC Resistenz mit heterozygoter Ausprägung des Gendefekts, mit über einige Jahre rezidivierenden Thrombophlebitiden. Das Ergebnis zeigte insgesamt keine signifikante Aktivierung des Blutgerinnungssystems infolge des Langstreckenfluges, unabhängig von der betrachteten Risikogruppe. Die PAI-Aktivität sinkt bei allen Probanden, allerdings unsignifikant, im Verlauf der ersten 6 Stunden und steigt anschließend nur geringfügig wieder an. Die D-Dimeren-Konzentration bleibt im Mittel nahezu unverändert. Der Gehalt des Prothrombinfragments F1-F2 steigt im Verlauf von 48 Stunden nicht signifikant an. Der von-Willebrand-Faktor schwankt im zeitlichen Ablauf, die Änderungen haben ebenfalls keine Signifikanz. Höheres Alter kann nur tendenziell als Risikofaktor bestätigt werden, Geschlechtszugehörigkeit zeigte sich hier als nicht signifikant risikoerhöhend. Der Patient mit der postexpositionellen Thromboembolie zeigt ein etwas abweichendes Verhalten: in den ersten 9 Stunden stark sinkende, danach leicht ansteigende aber unter Ausgangsniveau bleibende PAI-Werte. Die D-Dimere-Werte steigen kontinuierlich stark an bis zu 48 Stunden. Die F1-F2-Konzentration steigt um fast 50% nach 2-Stunden, sinkt von da an kontinuierlich bis auf 48 Stunden. Die vw-Antigen-Faktoren steigen nach 48 Stunden an. Abgesehen von dem Embolie-Patienten konnten in dieser Studie keine signifikanten Korrelationen zwischen Langstreckenflügen und erhöhter Blutgerinnungsaktivität ermittelt werden.
Die NO/cGMP-Kaskade spielt bei der nozizeptiven Transmission im Hinterhorn des Rückenmarks eine wichtige Rolle. In der vorliegenden Arbeit wurden bekannte cGMP-Targets (PKG-1, CNG-Kanäle, PDE-2 und -3) sowie synaptische Vesikelproteine (Synapsin 2, Rabphilin) als potentielle Targets der NO/cGMP-Kaskade mit Hilfe von molekularbiologischen Methoden und nozizeptiven Verhaltensstudien hinsichtlich einer Beteiligung an der nozizeptiven Transmission im Rückenmark untersucht. Im Formalintest reduzierte der PKG-1-Inhibitor Rp-8-Br-cGMPS (0,1 - 0,5 µmol i.t.) die nozizeptive Antwort, während der PKG-1-Aktivator 8-Br-cGMP in hoher Dosis (2,5 µmol i.t.) einen gegenteiligen Effekt zeigte. Überraschenderweise wirkte 8-Br-cGMP in niedriger Dosis (0,1 - 0,25 µmol i.t.) antinozizeptiv, was durch die gleichzeitige Applikation des PKG-Inhibitors weiter verstärkt wurde. Im Gegensatz zu Rp-8-Br-cGMPS oder 8-Br-cGMP beeinflussten weder der CNG-Kanal-Inhibitor L-cis-Diltiazem (0,5 mg i.t.), noch die PDE-Inhibitoren EHNA (0,25 µmol i.t.) oder Milrinon (5 - 10 mg/kg i.p.) die nozizeptive Antwort im Formalintest. Mit Western Blot-Analysen konnte gezeigt werden, dass die Formalininjektion in eine Hinterpfote im Lumbalmark nach 48 - 96 h eine Steigerung der PKG-1-Proteinkonzentration zur Folge hat. Dies wurde durch Vorbehandlung der Versuchstiere mit Rp-8-Br-cGMPS (0,1 - 0,5 µmol i.t.) oder Morphin (2,5 - 5 mg/kg i.p.) verhindert, während 8-Br-cGMP (2,5 µmol i.t.) die Formalin-induzierte Steigerung der PKG-1-Konzentration im Lumbalmark verstärkte. Die Formalininjektion in eine Hinterpfote veränderte auch die Synapsin 2b-Konzentration im Lumbalmark: 10 min bis 8 h nach der Injektion wurde die Synapsin 2b-Proteinkonzentration gesenkt, nach 48 h war jedoch eine Zunahme zu beobachten. Diese späte Zunahme der Synapsin 2b-Proteinkonzentration wurde durch eine Steigerung der Genexpression hervorgerufen, denn mit quantitativer Realtime RT-PCR wurden erhöhte mRNA-Konzentrationen 24 - 48 h nach der Formalininjektion gemessen. Die rasche Formalin-induzierte Abnahme der Synapsin 2b-Proteinkonzentration ging jedoch weder mit Änderungen der mRNA-Konzentration, noch mit veränderten Solubilisierungseigenschaften bei der Proteinaufbereitung einher, und wurde durch Vorbehandlung der Versuchstiere mit Morphin (10 mg/kg i.p.), Diclofenac (10 mg/kg i.p.), Metamizol (1 g/kg i.p.) oder dem NOS-Inhibitor L-NAME (10 - 100 mg/kg i.p.) verhindert. Demgegenüber führte die Vorbehandlung mit dem NO-Donor NOC-5 (4 - 20 µg i.t.), 8-Br-cGMP (0,1 - 2,5 µmol i.t.), Rp-8-Br-cGMPS (0,1 - 0,25 µmol i.t.) oder der Kombination von 8-Br-cGMP und Rp-8-Br-cGMPS (0,1 + 0,1 und 0,5 + 0,5 µmol i.t.) zu einer Verstärkung der Formalin-induzierten raschen Senkung der Synapsin 2b-Konzentration. Die funktionelle Relevanz dieser Befunde wurde in mehreren nozizeptiven Tiermodellen überprüft. Durch eine kontinuierliche i.t. Infusion von Antisense-Oligonukleotiden wurde die Synapsin 2-Konzentration im Lumbalmark der Ratte gesenkt, was eine Reduktion der nozizeptiven Antwort im Formalintest zur Folge hatte. Bei Synapsin 2-Knockout-Mäusen war im Vergleich zu Wildtyp-Mäusen eine verminderte nozizeptive Antwort im Formalintest und eine Reduktion der mechanischen Hyperalgesie bei Zymosan-induzierter Pfotenentzündung zu beobachten. Im Hot-Plate-Test zeigten die Knockout-Mäuse im Vergleich zu Wildtyp-Mäusen kürzere Latenzzeiten. Im Gegensatz zu Synapsin 2b wurde die Rabphilin-Konzentration im Lumbalmark durch Formalininjektion in eine Hinterpfote nicht beeinflusst. Allerdings führte die Verabreichung von Metamizol (500 mg/kg i.p.) oder Diclofenac (5 mg/kg i.p.) nach 1 h zu einer Steigerung der Rabphilin-Proteinkonzentration, welche nicht von Änderungen der mRNA-Expression begleitet war. Eine Senkung der Rabphilin-Proteinkonzentration wurde durch Applikation von NOC-5 (4 - 20 µg i.t.), 8-Br-cGMP (0,5 - 2,5 µmol i.t.), oder Rp-8-Br-cGMPS (0,1 - 0,25 µmol i.t.) hervorgerufen. Zusammenfassend bestätigen diese Ergebnisse die Hypothese, dass im Rückenmark PKG-1 einen Effektor der NO-induzierten Hyperalgesie darstellt. Darüber hinaus konnte gezeigt werden, dass NO/cGMP über noch unbekannte Mechanismen die Verfügbarkeit bestimmter synaptischer Vesikelproteine moduliert, die vor allem bei starker oder anhaltender nozizeptiver Erregung für die Transmitterausschüttung und damit für die nozizeptive Transmission notwendig sind. Interessanterweise führt NO/cGMP über diese Mechanismen eher zur Hemmung der Nozizeption, was die bei niedrigen intrathekalen Dosen beobachteten antinozizeptiven Effekte von 8-Br-cGMP erklären kann. Die These der NO-induzierten Hyperalgesie kann aufgrund der Untersuchungen in dieser Arbeit und früherer Studien um eine insbesondere in niedriger Dosis auftretende NO/cGMP-vermittelte Antinozizeption erweitert werden.
Die weltweite Vernetzung von Märkten, Kapital und Produktion lässt Entwicklungs- und Schwellenländer der Versuchung des »social dumping« erliegen: Das ohnehin niedrige arbeitsrechtliche Niveau senken sie noch weiter ab, um im globalen Wettbewerb mithalten zu können. Davon betroffen sind Länder in Afrika, Asien und Lateinamerika ebenso wie in Mittel- und Osteuropa. Doch bedroht sind auch die sozialen Errungenschaften in fortgeschrittenen Industrieländern, da die Produktion immer häufiger in Länder mit geringeren Arbeitskosten verlagert wird. Eine Abwärtsspirale ist in Gang gesetzt, der viel beschworene »race to the bottom« erscheint unaufhaltsam. Deshalb soll hier der Frage nachgegangen werden, welche Konzepte der Gegensteuerung sich auf globaler Ebene ausmachen lassen, wie deren Effektivität einzuschätzen ist und welche Zukunftsperspektiven sich aus den bisherigen Erfahrungen gewinnen lassen.
Im Zuge der steigenden Bedeutung der Proteomforschung und der »Molekularisierung« der Medizin werden neue, effizientere Plattformen zur Untersuchung von Proteinen und deren Wechselwirkungen notwendig. Hier bietet die Nanotechnologie, eine Wissenschaft mit Ursprüngen in der Physik und der Halbleiterindustrie, attraktive Lösungsperspektiven. Ein Bereich der Forschung am Institut für Biochemie der Universität Frankfurt um Prof. Dr. Robert Tampé widmet sich den Aspekten der Nanotechnologie zur Entwicklung von Protein-Chips für die Proteomforschung und Erzeugung von Mustern im Kleinstformat.
Fachliche Exzellenz und Bildungsnotstand – diese beiden Extreme beherrschen gegenwärtig die Diskussion um Schul- und Hochschulausbildung. Die Universität Frankfurt stellt sich der Elitediskussion und setzt auf Fokussierung und Schwerpunktbildung. Studiengänge werden modifiziert, die Art und Vielfalt möglicher Abschlüsse internationalen Standards angepasst. Die Universität will und wird wettbewerbsfähig sein, auch im internationalen Vergleich. Darüber sprach Dr. Monika Mölders mit Prof. Dr. Günther Wess, Honorarprofessor der Universität Frankfurt, Forschungsleiter Europa von Aventis und Mitglied der Geschäftsführung der Aventis Pharma Deutschland GmbH.
Shanghai boomt – wieder einmal: Denn bereits Mitte des 19. Jahrhunderts stieg die Hafenstadt zum kulturellen, politischen und ökonomischen Zentrum Chinas auf. Von dieser Stadt gingen so entscheidende Impulse für künstlerische, politische und ökonomische Innovationen aus, dass sie zuweilen sogar von der mentalen chinesischen Landkarte gestrichen wurde. Shanghai ist nicht China. Ein Blick auf die Geschichte lohnt sich, um die Entwicklung dieser heute als Metropole der Superlative und Inbegriff der Modernität gepriesenen Stadt verstehen zu können. Auch damals lebte Shanghai von dem unverwechselbaren Zusammenspiel von Chinesen und Ausländern, was ihren kosmopolitischen Charme ausmachte. Wie vermischten sich westliche und chinesische Einflüsse im kulturellen Leben? Was bedeutete dies für die Welt des Theaters, wo traditionelle und moderne, westliche und chinesische Kunstformen aufeinandertrafen? Lassen sich hier die Anfänge einer chinesischen »Moderne« ausmachen?
Asmodai in Olmütz
(2004)
"Spunda hat sich sowohl als magischer Dichter als auch als Theoretiker und Verkünder der magischen Substanz einer neuen Dichtung in seinem Essayband "Der magische Dichter" (1923) deklariert. Seine Vorstellung von der magischen Dichtung ergab sich aus einer Steigerung und Metamorphose des Expressionismus. [Immerwieder hat es ihn] zu längeren Aufenthalten nach Olmütz, zur Suche nach magischen Phänomenen, [gezogen]. Durch [ihre] geheimnisvollen Kräfte [gab die Stadt] dem Dichter Spunda einen magischen Wink, den er der Öffentlichkeit weitergab:Fort mit der Unterdrückung, fort vom Krieg, fort von der Gewalt. Dieser Wink wirkt wie ein Friedensmanifest, inmitten des Zweiten Weltkrieges."
Daß der Begriff Natur für das 18. Jahrhundert im allgemeinen von kaum zu überbietender Bedeutung ist, ist eine derart grundlegende Erkenntnis, daß sie beinahe ans Triviale grenzt. Auch für die Ästhetik der Zeit ist seine Relevanz unmittelbar einsichtig, wenn auch im einzelnen, für verschiedene Personen und verschiedene Zeiträume, genau zu klären. Wie steht es aber mit dem Roman der Aufklärung und mit seiner - erst in rohen Zügen gegen Ende des Jahrhunderts sich entwickelnden - Theorie? Die Antwort auf diese Frage ist weder naheliegend noch offensichtlich. Lassen wir also als Spezialisten zunächst einen erfahrenen Literaturkritiker zu Wort kommen, der sich im „Teutschen Merkur“ des Jahres 1778 „Ueber den Mangel des Epischen Geistes in unserm lieben Vaterland“ - so der Titel des Beitrags - herzhaft beklagt: „Zum epischen Wesen gehören wackre Sinnen. So sehr man jetzo von Liebe zur Natur schwatzt, so sind doch wenig der Herren Poeten, die so ganz von Natur durch die Gegenwart eines lieben Baums zur Serenade erweckt würden, wie Freund Asmus [d.i. Matthias Claudius]. Bey den meisten ists garstige Tradition, und sie lieben die schöne Natur, weil sie ist beschrieben und besungen worden.“ Ein hartes Urteil, zweifellos; ist es aber auch ein gerechtes? Und wo findet sich die Natur im Roman der Aufklärung, wenn sie nicht von den „lieben Bäumen“ inspiriert ist? Um diese Fragen zu beantworten, werde ich zunächst einige allgemeine Überlegungen zur Entwicklung des Naturbegriffs in der Ästhetik vorausschicken (I), bevor ich mich meinem eigentlichen Thema auf zwei Wegen nähere: Zum einen werde ich die Funktion von Natur als Stoff der Dichtung in Romanen untersuchen, und zwar am Beispiel von literarischen Gärten in empfindsamen und antiempfindsamen Romanen Jean-Jacques Rousseaus, Johann Karl Wezels und Friedrich Heinrich Jacobis (II). Zum zweiten werde ich auf die Funktion der Natur für die Gestaltung des Romans in der Erzähltheorie bei Friedrich Blanckenburg und anderen Kritikern, und zwar in Beziehung zur Gartentheorie der Zeit bei Christian Hirschfeld eingehen (III).
Ich möchte im Folgenden [...] keineswegs versuchen, Goethes Weltliteraturbegriff für die gegenwärtigen geopolitischen Ordnungsstrukturen von Literatur in Anspruch zu nehmen und ihn [...] zu revitalisieren. Vielmehr will ich ihn in paradigmatischer Weise dazu benützen, um einige theoretische Grundprobleme und Argumentationsmuster in den kulturtopographischen Verortungsbemühungen der Literatur zu erörtern und mit der zeitgenössischen Theoriediskussion zu kontrastieren. Ich gehe zunächst so vor, dass wir uns über die wichtigsten Zeugnisse Goethes zum Weltliteraturbegriff anhand der Tischvorlage einen systematisierenden Überblick zu verschaffen suchen. Dadurch werden zugleich Grundmuster der allgemeinen Verortungsdiskussion von Literatur sichtbar. Diese sollen dann anschliessend auf die in der gegenwärtigen Theoriediskussion dominanten Modelle hin projiziert und verlängert werden. Meine Ausführungen wollen aber nicht im Sinne der Darlegung abgeschlossener Erkenntnisse verstanden werden, sondern dienen als Überlegungsangebote für eine anschliessende Diskussion.
[Rudolf Schenda] sah in [der Volksaufklärung] die Ursache für die "äußerst schleppende Bildungsentwicklung des 19. Jahrhunderts, die noch heute stark fortwirkt"; keine geistige Revolution stelle sie dar, sondern lediglich "ein klägliches Gefecht gegen den zähen Brei jahrhundertealter Unbildung". Dieses Gefecht, so wissen wir inzwischen, wurde besonders mittels des geschriebenen und gedruckten Wortes geführt. Mehrere tausend Schriften wandten sich an das leseunwillige Volk, hunderte von Zeitungen und Zeitschriften wurden für einfache Leser geschrieben, und zahllose Autoren zerbrachen sich den Kopf, auf welchen Wegen alle diese Druckerzeugnisse an den anvisierten neuen Adressaten zu bringen seien. Aus diesen Diskussionen, aus dieser neu erschlossenen Literatur insgesamt läßt sich heute ein differenziertes Bild einer Reformbewegung zeichnen, die die ersten Schritte hin zu einer allgemeinen und gleichen Bildung tat. Diese Bemühungen sind voller Widersprüche, Unentschlossenheiten und Unschlüssigkeiten, doch stellen sie die erste Infragestellung des Bildungsprivilegs der oberen Stände dar.
Die Erschaffung des künstlichen Menschen stellt seit Jahrhunderten eine technische und intellektuelle Herausforderung für die Menschen dar. Insbesondere das 18. Jahrhundert wurde als Jahrhundert des Maschinenmenschen verstanden – auch und gerade in seiner Selbstdeutung. Denn es ist das Jahrhundert aufge-klärter Humanität, das den Traum vom künstlichen Menschen zu träumen beginnt, ein Traum, der am Ende des 20. Jahrhunderts als gleichsam virtueller overkill menschliche Lebendigkeit negiert und dadurch zum Alptraum zu werden droht. Vor diesem Hintergrund mag es nützlich sein, noch einmal auf das 18. Jahrhundert zurückzuschauen und sich zu vergegenwärtigen, welche Maschinenvorstellungen virulent waren, wo es um reale Maschinen, wo um Metaphern ging und welches einerseits innovative und andererseits kritische Potential sich damit verknüpfte.
"During a Thunder-Storm", ein 1821 veröffentlichtes Gedicht über das Verhältnis des Menschen zu Gott von John Bowring (1792-1872), hat unlängst einige Aufmerksamkeit auf sich gezogen. Es bildete den obligatorischen Aufgabenteil des Übersetzungswettbewerbes Lyrik-Shuttle, der anläßlich des Europäischen Jahrs der Sprachen 2001 gemeinsam vom Lyrik-Kabinett München und dem Münchener Institut für Allgemeine und Vergleichende Literaturwissenschaft (Komparatistik) erstmalig veranstaltet wurde. Neben der Gebundenheit durch Metrum und Reim, dem Alter und der anspruchsvollen Wortwahl bestand einer der Auswahlgründe für dieses Gedicht seitens der Organisatoren darin, daß es sich um einen unbekannten Text handelte. Die TeilnehmerInnen des Wettbewerbs sollten bei ihrer Lösung der Übersetzungsaufgabe alternativlos Neuland betreten und nicht – wie bei einem prominenteren Gedicht (bzw. Verfasser) zu erwarten – durch bereits vorliegende Nachdichtungen beeinflußt werden. Vor einhundertsiebzig, ja wohl auch noch vor einhundertfünfzig Jahren konnte "During a Thunder-Storm" dagegen eine weit größere Popularität für sich beanspruchen. Die Geschichte, die damit verbunden ist, liefert ein aufschlußreiches Fallbeispiel aus dem Bereich der internationalen literarischen Kommunikation – der zeitgenössischen Entwicklung, die für den späten Goethe zunehmend ins Zentrum seines Interesses rückte und die er seit dem Ende der 1820er Jahre unter der Losung "Weltliteratur" offensiv propagierte.
Der Aufsatz präzisiert den Stellenwert der Genieästhetik des Sturm und Drang im Prozeß der Herausbildung einer Ästhetik autonomer Kunst. Die Geniekonzeptionen Herders, Goethes und Lenz´ werden gegenüber der semantischen Tradition differenziert und auf ihre Funktion innerhalb der Ästhetik hin untersucht. Zugleich wird aber auch nach ihrer Problemreferenz außerhalb der Sphäre der Kunst gefragt.
Kritik der Gewalt : über den Begriff der Gewalt von Walter Benjamin, Albert Camus und Frantz Fanon
(2004)
Eine erstaunliche Anklage wegen des Vertriebs eines „obszönen“ Comics ist Anlaß für eine kurze Untersuchung von Argumentationen, die eine spezifisch kindliche Rezeption neuer Medien in der Absicht beschreiben, die juristische Regulierung ihrer Verbreitung zu motivieren. Der Versuch, wahrgenommene Widersprüche in diesen Argumentationen zu erklären, führt schließlich zu der Frage, ob es mißlungene oder etwa besonders gelungene Rezeptionen sind, die in vergleichbaren Kontexten für gefährlich erklärt werden.
1. Zur Vorreden-Reflexion - Kulturförderung durch Geschmacksbil-dung oder durch Vermittlung von Weltwissen 2. Ein Vergleich der Inhalte im Jahrgang 1776 - zweierlei Kultur-Panoramen 3. Ein Vergleich ausgewählter Beispiele - diskursive Unterströmungen und argumentative Verwerfungen im Alltagsgeschäft | 3.1 Abhandlungen über die Schönheit - wechselnde Fronten in der Ästhetik | 3.2 Abraham auf Moria - die Einstimmigkeit des empfindsamen Diskurses über die Musik | 3.3. Die Schwärmer-Debatte - ein Freiraum für Meinungen in der Diskussion | 3.4. Die Homer-Übersetzung - ein kulturpolitisches Gemeinschaftsprojekt
Wezel und die Frauen : Prototypen feministischer Argumentationsstrukturen im späten 18. Jahrhundert
(2004)
Bei der Behandlung des Themas "Wezel und die Frauen" muß leider zunächst eine schmerzliche Leerstelle konstatiert werden: In Johann Karl Wezels Vita, die ja sowieso nur sehr fragmentarisch überliefert ist, scheinen Frauen seltsam ausgeschlossen. Das gilt jedoch zum Glück nicht für das Werk. Hier finden sich mehrere interessante Frauengestalten und sogar eine weibliche Titelheldin ? was für einen männlichen Autor der Zeit einigermaßen ungewöhnlich ist. Wenn ich im folgenden exemplarisch einige dieser Frauenfiguren untersuche, geht es mir zunächst um eine feministische Fragestellung: Gibt es im Werk Wezels eine Vorstellung von Emanzipation, eine Kritik von Geschlechtsstereotypen oder ein Konzept von Weiblichkeit? Spielt Gender für das Schreiben Wezels überhaupt eine Rolle? Darüber hinaus interessiert mich jedoch auch die umgekehrte Frage: Welchen inhaltlichen Stellenwert und welche poetologischen Konsequenzen haben die Themen von Weiblichkeit, Männlichkeit, Liebe und Ehe für das Werk Wezels selbst? Um das sozial- und diskursgeschichtliche Umfeld im späten 18. Jahrhundert wenigstens durch knappe Streiflichter zu erhellen, werde ich im folgenden zuerst auf einige literarische und theoretische Texte der Zeit zu sprechen kommen, die sich ebenfalls mit Geschlechterfragen beschäftigen. Im Anschluß daran werde ich vor allem den Belphegor sowie die Ehestandsgeschichten und in einem kurzen Exkurs Herrmann und Ulrike behandeln.
Die zunehmende Bedeutung der Anthropologie zeigt sich [...] in der poetologischen Diskussion des Verses, der Metrik und Prosodie. Während zu Beginn des 18. Jahrhunderts der Vers in der Rhetorik seine Begründung fand, führte die Ausdifferenzierung der Poesie aus der Rhetorik zu einer Grundlagenreflexion, in deren Verlauf in Moritz Versuch einer deutschen Prosodie ein "wesentliche[r] Fortschritt" in der prosodischen Schätzung der Silben erreicht wurde. Die an der Diskussion beteiligten Theoretiker rekurrierten zunehmend auf anthropologische Konzeptionen. Dieser Prozeß ist im folgenden zu rekonstruieren. Einen Überblick über die Ausgangslage bietet Gottscheds Versuch einer Critischen Dichtkunst. Die Diskussion um den Hexameter als Leitfrage der Verslehre des 18. Jahrhunderts bündelte die wesentlichen Argumente und warf Anschlußprobleme auf: die Frage nach der Differenz der Einzelsprachen, die Anreicherung der Verstheorie mit geschichtsphilosophischen Deutungsmustern, d.h. die Verortung von Metrik und Prosodie in einer Theorie des Zivilisationsprozesses, schließlich die Verwissenschaftlichung bis zur Jahrhundertwende.
Zur Wette im Faust
(2004)
Die Inbrunst, mit der die Frage nach dem Ausgang der Wette(n) im Faust früher erörtert wurde, mutet heute fast grotesk an, ist aber immerhin ein Beleg dafür ist, daß man den Text auch in seinem literalen Ablauf ernst nahm. Heute schlägt das Pendel ins Gegenteil hinüber. Der Ausgang scheint uninteressant geworden zu sein. Ob Goethe da nicht unterschätzt wird? Es ist zwar wohltuend, wenn die Fixierung auf den "juristischen" Abschluß der causa Faust und damit der harte Zugriff auf ein "Ergebnis" suspendiert wird. Aber die so gewonnene Unbefangenheit sollte zu einem erneuten Blick auf diese pragmatische "Hauptgräte" des Textes genutzt werden: Die Wette, so sei vorweg behauptet, spielt nicht einfach "so oder so keine Rolle mehr"; Goethe hat vielmehr das Handlungsmuster derart mit Bedeutung versehen, daß es sich am Ende selbst aufhebt und dabei den Sinn des Dramas pointiert.
Der Beitrag gibt ein Beispiel dafür, wie philologische Kompetenz für die Analyse von medienkulturellen Phänomenen fruchtbar gemacht werden kann. Ausgehend von Wolfgang Isers Leerstellentheorem wird nach der Funktionsweise ästhetischer Erinnerungsanlässe gefragt – zum einen in systematischer Hinsicht durch einen Vergleich von Schrift, Bild und Klang, zum anderen in historischer Hinsicht durch einen Vergleich analoger und digitaler Medien. Es ergibt sich, daß die ästhetischen Strategien, mit denen traditionellerweise Literatur, bildende Kunst und Musik Leerstellen eröffnen, auf Animationen beruhen, die durch ihre computertechnische Realisierung grundsätzlich nivelliert werden. Folglich bedarf es neuer Verfahren der Leerstellengenerierung, um unter den Bedingungen digitaler Medien die Erinnerung zu aktivieren.
[Hier sollen Fragen] anhand der Untersuchung eines wesentlichen Bestandteils des Versuch, nämlich der Theorie von den Empfindungen, geklärt werden. Diese breitet Wezel ausführlich im zweiten Teil des Werks aus, ja sie hätte sogar noch den dritten Teil ausgefüllt. In der Philosophie und der Rhetorik wird das Thema seit der Antike unter dem Titel "Affektenlehre" behandelt; in der zweiten Hälfte des 18. Jahrhunderts präsentiert es sich im neuen Gewand als Lehre von den Gefühlen - Wezel ist einer der ersten, die den neuen Terminus benutzen. Um die diskursive wie philosophiegeschichtliche Einordnung des Versuch zu präzisieren, werden vergleichend die Affektlehren einiger Texte hinzugezogen, die Wezel selbst an verschiedenen Stellen als seine Quellen benannt hat, und die gleichzeitig stellvertretend für verschiedene philosophische Richtungen und unterschiedliche disziplinäre Kontexte stehen sollen: John Lockes Essay on Human Understanding, David Humes Treatise of Human Nature und Claude-Adrien Helvétius´ De l´esprit als Vertreter philosophischer Hauptströmungen der Zeit (vgl. I); Johann Friedrich Zückerts Medicinische und moralische Abhandlung von den Leidenschaften und Samuel Auguste Tissots Traité des nerfs als medizinische Beiträge (vgl. II); und schließlich für die deutsche Popularphilosophie Johann Georg Feders Untersuchungen über den menschlichen Willen (vgl. III). Anschließend soll Wezels eigene Theorie der Empfindung kurz dargestellt und zu den anderen Texten in Beziehung gesetzt werden (vgl. IV). Ich werde dabei versuchen, wesentliche Aussagen der genannten Autoren zu zentralen Themen der Affektenlehre herauszuarbeiten: Wie definieren sie die grundlegenden Termini Affekt, Leidenschaft, Empfindung, Gefühl? Was für Klassifikationen und Kategorien führen sie ein? In welchem Verhältnis stehen die Affekte bei ihnen zur Moralität und zum Willen/Begehrungsvermögen des Menschen? Daneben wird zu untersuchen sein, welcher Methoden sie sich bedienen: Gibt es so etwas wie spezielle philosophische oder anthropologische Argumentationen, Schluß- und Beweisverfahren oder eine unterschiedliche Topologie der verschiedenen Diskurse über den Menschen?
Ich will im folgenden zunächst kurz darstellen, wie Wezel selbst in der zitierten Oberon-Rezension sein eigenes Dichtungsverständnis expliziert. Anschließend will ich in einem sehr knappen Durchgang durch die neuere Forschung zeigen, welche unterschiedlichen Triebwerks-Modelle im Blick auf den »ganzen Wezel « bisher vorgeschlagen wurden. Abschließend werde ich das literarische Gesamtwerk in den Blick nehmen und untersuchen, wie die verschiedenen Triebwerks-Modelle dort in Bewegung gesetzt werden bzw. zusammenspielen.
In nahezu allen Texten von Karl Philipp Moritz spielt "Zerstörung" eine zentrale Rolle. Moritz verwendet die Vokabel weit über den Zusammenhang seiner ästhetischen Reflexionen hinaus geradezu terminologisch. Die Intensität seiner obsessiven Reflexion der "Zerstörung" kann verstanden werden als Ausdruck von Kontingenzbewußtsein,2 und die langjährige Auseinandersetzung mit diesem Phänomen als Versuch, das Problem aufbrechender Kontingenz im Medi-um philosophischer, poetischer und ästhetischer Reflexion mittels eines metaphysischen Konzeptes zu lösen und zu kodieren.
Wie Schrift und Bild im Verhältnis zur Imaginatio stehen, will ich untersuchen. Dabei kommt ein weiteres Verhältnis ins Spiel, nämlich das zum Körper. "Bilder denken" im Sinne von imagines agentes heißt nicht, bloße Vorstellungen von etwas ohne Gegenwart eines Gegenstandes im Kopf haben, wie Kant die Einbildungskraft im Unterschied zur Anschauung definiert. Agent, also aktiv, ergreifend, handlungsauslösend zu sein –: dies heißt mehr, nämlich daß Bilder inkorporiert werden und körperliche Erregungen, Veränderungen oder Handlungen auslösen. Das ist die Performanz der Bilder. Diese körperliche Spur der Bilder, ja, das Einspuren des Körpers durch Bilder ist die energischste Form, in der Erinnerungen inskribiert werden, und die energischste Form, in der Bilder zur Resonanz von Körpern und Körper zur Resonanz von Bildern werden können.
Wissenschaft, so heißt es, sei ein Projekt, das auf Erkenntnis zielt. Damit verbunden ist die Vorstellung, daß wir heute mehr wissen als gestern und morgen mehr wissen werden als heute. Die Frage ist nur, ob sich das zu Erkennende auch in diese Gedankenfigur fügt. Wie müßten wir vorgehen, wenn jene weißen Flecken auf der Landkarte des Wissens, welche zu besetzen und zu füllen ein konsti-tutiver Bestandteil wissenschaftlichen Selbstverständnisses ist, eo ipso als Wirklichkeiten anzuerkennen sind, die unerkannte Möglichkeiten in sich bergen? Wie können wir diesen virtuellen Realitäten (im emphatischen Sinne der Prägung, nicht dem geläufigen, der auf einem technizistischen Mißverständnis beruht) gerecht werden, ohne sie durch den fixierenden Zugriff, das Aussagen und Ausmalen, Aufschreiben und Aufzeichnen ihrer Virtualität zu berauben? ...
Ausgangspunkt der folgenden Überlegungen ist die Beobachtung, daß sich in einigen Arbeiten aus dem Bereich der Frauen- und Geschlechterforschung ein Richtungswechsel bemerkbar zu machen beginnt, der Bewegung in manch (un)lieb gewordene Annahme der Forschung bringt und darauf zielt, feministische und allgemeine Literaturwissenschaft zu einer Geschlechtergeschichte der Literatur zu verbinden. Diesem Perspektivenwechsel möchte mein Beitrag anhand einer Diskussion wichtiger Neuerscheinungen nachgehen. Im Zentrum stehen drei Problemfelder, die die Forschungsdebatte der letzten Jahre wesentlich geprägt haben und zugleich ihre Neuorientierung anzeigen, nämlich 1. die Polarisierung der Geschlechtscharaktere, 2. die literarischen Gattungen und 3. die Kanonbildung. Bevor jedoch erste Ergebnisse dieses Perspektivenwechsels diskutiert werden können, muß dieser selbst dargestellt werden.
Von der Poetik und Rhetorik des Fremden zur Kulturgeschichte und Kulturtheorie des Übersetzens
(2004)
Ich werde zunächst kurz Begriff und Entwicklung der Naturgeschichte im 18. Jahrhundert skizzieren (I); anschließend soll der von Bertuch angepriesene Nutzen der Naturgeschichte fürs Leben näher untersucht werden (II); in einem weiteren Schritt werde ich auf Probleme und Mittel der Popularisierung eingehen (III) und schließlich noch kurz über den Erfolg des Projekts berichten (IV).
Warum Wezel?
(2004)