Refine
Year of publication
- 2004 (1201) (remove)
Document Type
- Article (490)
- Doctoral Thesis (213)
- Review (107)
- Part of Periodical (97)
- Part of a Book (85)
- Working Paper (43)
- Book (41)
- Report (33)
- diplomthesis (22)
- Conference Proceeding (21)
Language
- German (1201) (remove)
Keywords
- Johann Wolfgang von Goethe (36)
- Frankfurt <Main> / Universität (29)
- Rezension (24)
- Anton Ulrich <Braunschweig-Wolfenbüttel (19)
- Herzog> / Octavia (19)
- Deutschland (18)
- Deutsch (15)
- Goethe, Johann Wolfgang von (15)
- Literatur (14)
- Vormärz (14)
Institute
- Medizin (114)
- Extern (60)
- Biochemie und Chemie (46)
- Rechtswissenschaft (45)
- Physik (31)
- Erziehungswissenschaften (28)
- Präsidium (26)
- Biowissenschaften (23)
- Universitätsbibliothek (23)
- Kulturwissenschaften (21)
Die Hoffmannsche Buchhandlung ist die älteste in Weimar; ihr Ursprung läßt sich bis ins Jahr 1732 zurückverfolgen. Ihre Geschichte in der zweiten Hälfte des 18. und in den ersten Jahrzehnten des 19. Jahrhunderts spiegelt die Entwicklungsphasen des Verlagsbuchhandels in dieser Zeit deutlich wider. Das betrifft sowohl die interne typologische Entfaltung, kurz gesagt der Weg zum Kommissions- und Sortimentshandel, als auch die zeitbedingten Fortschritte und Krisen in den bewegten Jahrzehnten um 1800. [...] Die Hoffmannsche Buchhandlung und das 1791 von Bertuch gegründete Landes-Industrie-Comptoir können ohne Zweifel deshalb besondere Aufmerksamkeit beanspruchen, weil sie in einem kulturgeschichtlich bedeutsamen lokalen Umfeld, dem "vorklassischen" und "klassischen" Weimar, agierten. Unter diesem Gesichtspunkt erhalt eine Hauptfrage an die Thüringer Verlagsgeschichte dieser Zeit einen besonderen Akzent: Gelingt es den in den Fürstlichen Residenzen tätigen Verlagsbuchhändlern, über die speziellen lokalen und regionalen Verpflichtungen und Bindungen hinaus eine literarische Produktion von überregionaler Bedeutung auf den Markt zu bringen? In Weimar, aber auch mutatis mutandis in Gotha, entstanden im letzten Viertel des 18. Jahrhunderts besondere, fördernde Bedingungen für eine solche höhere Geltung und überregionale Wirksamkeit, die es im einzelnen nachzuweisenund darzustellen gilt.
Außerhalb der indoeuropäischen Sprachen [erfreut sich] [d]ie Kategorie „Adjektiv“ […] einer geringeren Verbreitung als man als Laie vermuten würde, und es zeigen sich in nicht-indoeuropäischen Sprachen von den europäischen Sprachen stark verschiedene Aufteilungen der Welt in Nomina und Verba. Eine bisher nicht beschriebene Verteilung von Konzepten auf Wortarten in der Sprache Guarani, welche hauptsächlich in Paraguay gesprochen wird, ist das Thema dieser Arbeit.
Je nach regionaler Herkunft realisieren Sprecher des Deutschen die beiden Wörter "Verein" und "überall" unterschiedlich. [...] Der Grundgedanke dieser sprachtypologischen Unterscheidung, bei der wir uns hauptsächlich auf die Arbeiten von P. Auer (1993, 1994, 2001) sowie P. Auer / S. Uhmann (1988) beziehen, besteht darin, dass alle Sprachen eine Form von Isochronie anstreben.
Zeitnamen
(2004)
Der menschliche Alltag, das gesamte gesellschaftliche und individuelle Leben, unser Denken, Planen und Handeln basiert auf der Unterscheidung und Benennung von Zeitpunkten (im Sinne punktuell wahrgenommener Zeit) und Zeitabschnitten (im Sinne von sich über einen Zeitraum erstreckender Zeit). Damit ist eine von mindestens drei Bedingungen, onymisch bezeichnet zu werden, hochgradig erfülllt: die Relevanz des Objekts (beziehungsweise der Entität) in seiner Singularität und Individualität für den Menschen.
Vom Name-n-forscher zum Name-ns-forscher : unbefugte oder befugte ns-Fuge in Namen(s)-Komposita?
(2004)
Um die nun im Titel gestellte Frage zu beantworten: Es ist befugt, Komposita mit Name als Erstglied mit -ns- zu verfugen. Die Korpusbefimde weisen überdeutlich aus, daß "ns- hier hochproduktiv ist. Als Grund fiir diese starke Bevorzugung der ns-Fuge wurde der "Rückzug" der n-Fuge auf die Klasse der belebten, schwachen Maskulina und damit die Funktionalisierung ebendieser Fuge als Klassen- und Belebtheitszeichen ermittelt. Der Name als Simplex hat sich zwar bereits mit dem starken Genitiv Singular Namens aus der Klasse der schwachen Maskulina entfernt, doch verharrt er weiterhin in einer kleinen Mischklasse, deren Mitglieder zum größten Teil bereits in die starke (sog. "Balken-") Klasse abgewandert sind oder dabei sind, dies zu tun. Daß der Name sich diesem Wandel entzieht, geschieht jedoch unbefugter- und unerklärtermaßen. Die Beschäftigung mit den Namen/s-Schwankungen hat ferner erbracht, daß gerade die ältere Schicht an Namens-Komposita lexikalisiert ist (Namenstag, Namensvetter) und daß die n-Fuge nur noch in fachsprachlicher Verwendung dominiert (Namenaktie, Namenkunde, Namenforschung). Als förderlich für die ns-Verfugung haben sich gerade die (ansonsten fugenhemmend wrrkenden) deverbalen Zweitglieder erweisen (Namensgebung), als hinderlich dagegen die Komplexität der 1. Konstitutente (Familiennamenforschung) - wenngleich diese Tendenzen nur fiir die s-Fuge ermittelt wurden. Die ns-Fuge erweist sich ilrrerseits als bessere Binnengrenzmarkierung, da [s] positionsbeschränkt, d.h. im Wortanlaut blockiert ist. Sowohl bei -n- als auch bei -ns- handelt es sich um paradigmische Fugen. Der Zufall bzw. das Alphabet will es, daß der Eintrag Name zwischen Naivling und Nandu (< span.-südam. nandu [njan'du]), dem südamerikanischen Kollegen des afrikanischen Straußenvogels, angesiedelt ist. Was den Nandu betrifft, so hat sich dieser Beitrag zumindest darum bemüht, den Kopf nicht in den Sand zu stecken. Was jedoch den Naivling anbelangt, so befinden wir uns bei dem faszinierenden Thema der Fugenelemente immer noch in diesem Stadium, auch wenn mittlerweile bei der Frage nach Funktion und Grammatik dieser "Grenzfälle morphologischer Einheiten" (so der Titel von Fuhrhop 1998) große Durchbrüche erzielt worden sind. Wenn es aber, wie in diesem Beitrag, um Schwankungs- und damit um Grenzfälle solcher Grenzfälle geht, so tut sich, um die Sache positiv zu wenden, ein ganzer Strauß (oder Nandu) an Desideraten, Herausforderungen und Forschungsperspektiven auf.
Namenskunde
(2004)
Eigennamen (auch Propria, Onyme) werden unter die Substantive subsumiert und erfüllen spezifische referentielle Funktionen. Im Gegensatz zu den Appellativen (Gattungsbezeichnungen) wie z. B. Mensch oder Stadt, die eine ganze Klasse von Gegenständen bezeichnen, referieren Eigennamen prototypischerweise nur auf ein einziges Denotat (Monoreferentialität), z. B. Goethe oder Frankfurt.
Those principles of Naturalness as postulated by Mayerthaler (1981) claim to make predtictions about the direction of language change possible. It is true that the majority of morphological changes can be accounted for by these principles. However, systematic violations of these rules can be found in of all things, some of most frequent, elementary verbs such as HAVE, BE, BECOME, COME, GO, GIVE, TAKE, etc. Their irregularities cannot be accounted for solely - as Naturalness Theory would have it - by conflicts between phonological and morphological Naturalness. Rather, they have been systematically built up through other efficient strategies. This "regularity of irregularity" is the focus of this paper, which demonstrates several particularly well-beaten paths to irregularization through contrastive diachronic investigations of frequent verbs in different Germanic languages. lrregularity, a term laden with negative connotations, is substituted by the term differentiation, which names the actual function directly. Because differentiation typically correlates with word brevity, this constellation should be considered an ideal compromise between hearer and speaker interests. A further question to be addressed is which individual categories are expressed through irregularization. It is concluded that this process is guided by token frequency and degree of relevance.
Als Jürgen Udolph am 1. Oktober 2003 das Symposion "Völkernamen, Ländernamen, Landschaftsnamen" in Leipzig eröffnete, sagte er unter anderem: "Ich freue mich, daß Sie alle den Weg in die neuen Bundesländer gefunden haben". Genau dieser Satz leitete unbeabsichtigt die Fragestellung meines damaligen Vortrags bzw. des hier vorliegenden Beitrags ein: Ist das Syntagma die neuen Bundesländer bereits ein Eigenname, ist es noch eine definite Beschreibung, oder ist es etwas dazwischen? Wäre es auch möglich gewesen, zu sagen: "Ich freue mich, daß Sie den Weg in ein neues Bundesland ... " oder" ... in das neue Bundesland Sachsen gefunden haben"? Die muttersprachliche Kompetenz verneint diese Alternativen eher, und dies deutet daraufhin, daß dieses Syntagma bereits stark proprialisiert (oder onymisiert) sein muß.
In unserem Beitrag gehen wir der Frage nach, wie Erwachsene neue Fähigkeiten und Fertigkeiten zum mündlichen Kommunizieren erwerben, d.h. aneignen. Ziel ist es, die beteiligten Prozesse für Analyse-, Beratungs- und Vermittlungszwecke zu systematisieren, um Antworten auf die folgenden Fragen zu finden: Welche Teilfähigkeiten werden zum mündlichen Kommunizieren überhaupt benötigt? Welche lassen sich leicht – welche nur schwer oder vielleicht gar nicht vermitteln bzw. aneignen? Welche Methoden eignen sich für die Vermittlung welcher Fähigkeiten? Ausgangspunkt unserer Überlegungen sind praktische Fragen des Kompetenzerwerbs, d.h. des Erwerbs der Fähigkeit, angemessen mündlich kommunizieren zu können. Wir gehen davon aus, dass es sich hierbei um eine spezifische Kompetenz handelt, die sich von anderen Kompetenzen unterscheidet (vgl. Fiehler/ Schmitt i.d.Bd.). Ihre Besonderheit liegt in den spezifischen Bedingungen der mündlichen Kommunikation begründet: Gespräche und Diskurse sind immer das Resultat aller daran Beteiligter, so dass die Anteile und beteiligten Kompetenzen des Einzelnen weniger offensichtlich sind als bei individuellen Tätigkeiten. Mündliche Kommunikation ist durch ihre Flüchtigkeit, Prozesshaftigkeit, Interaktivität und Musterhaftigkeit gekennzeichnet (vgl. Deppermann i.d.Bd., Abschn. 3). Die Bewältigung mündlicher Kommunikation erfordert ein spezifisches Ensemble von Wissen und Fertigkeiten, die sich zusammenfassend als Gesprächskompetenz beschreiben lassen. Auch wenn wir uns in diesem Beitrag auf die Gesprächskompetenz konzentrieren, sind wir nicht der Auffassung, dass der faktische Gesprächsverlauf ausschließlich eine Funktion dieser Kompetenz ist. Vielmehr spielen andere Faktoren wie Emotionen und Affekte, Beziehungs- und Rollenfragen ebenfalls eine Rolle.
Sprachwandel
(2004)
Reziproke chromosomale Translokationen sind häufig mit Leukämien und Lymphomen assoziiert und gelten in vielen Fällen als Ursache der Erkrankung. Die reziproke Translokation t(4;11) findet man hauptsächlich bei Kleinkindern, die an einer akuten lymphatischen Leukämie erkrankt sind, aber auch bei älteren Patienten mit einer Sekundärleukämie. Die leukämischen Blasten dieser Patienten sind meist gegen konventionelle Therapiekonzepte resistent, was zu einer ungewöhnlich schlechten Prognose führt. Die Chromosomenbande 11q23 ist an einer Vielzahl chromosomaler Translokationen beteiligt. Die dadurch erzeugten reziproken MLL-Fusiongene sind alle mit der Entstehung einer Hochrisikoleukämie korreliert. Für einige der dabei entstehenden Fusionsproteine konnte nach retroviraler Transduktion in hämatopoietische Vorläuferzellen gezeigt werden, dass sie onkogenes Potential besitzen und eine myeloische Leukämie in transgenen oder transienten Mausmodellen initiieren können. Für die Produkte einer Translokation t(4;11) konnte dies bislang nicht erfolgreich untersucht werden. Bei der Translokation t(4;11) werden die beiden Partnergene MLL und AF4 so miteinander verknüpft, dass auf den neu gebildeten Derivatchromosomen zwei Fusionsgene (MLL•AF4 und AF4•MLL) mit einem intakten Leserahmen entstehen. Da man in den leukämischen Blasten im Regelfall beide Fusionstranskripte findet, nehmen wir an, dass beide Genprodukte zur Fehlregulation und Entartung der Zelle beitragen. Um den potentiell onkogenen Wirkmechanismus der t(4;11) Translokation zu untersuchen, wurde ein induzierbares Expressions-System in murinen embryonalen Fibroblasten (MEF) etabliert. Anhand dieses Zellsystems gelang es das potententielle onkogene Potential der Fusionsproteine MLL•AF4 und AF4•MLL, bzw.des Wildtyp AF4 Proteins in Focus Formation Assays sichtbar zu machen. Dabei konnte die Bildung zellulärer Foci eindrucksvoll für das Wildtyp AF4 Protein und das AF4•MLL Fusionsprotein dargestellt werden. Das MLL•AF4 Fusionsprotein war nicht in der Lage den Verlust der Kontaktinhibition und damit Focus-Bildung in den Zellen zu initiieren. Die anschließende Definition des AF4 Wildtyp- und AF4•MLL Fusionsproteins als Proto-/Onkoprotein, führte zu der Arbeitshypothese, dass der Nterminale Bereich des AF4 Proteins (AF4•N) Wachstums-transformierendes Potential besitzt. Aufgrund der vorliegenden Daten und zur genaueren Charakterisierung des AF4 Proteins wurden anschließend Interaktions-Studien mit dem AF4•N Protein durchgeführt, wobei die beiden E3 Ubiquitin Ligasen SIAH1 und SIAH2 als Interaktionspartner des AF4•N Proteins identifiziert wurden. E3 Ubiquitin Ligasen sind wichtige Bestandteile der Ubiquitinylierungs-Maschinerie und der damit verbundenen proteasomalen Degradation. Dabei sind die SIAH Proteine, wie alle E3 Ubiquitin Ligasen, für die Spezifität der Proteasom-abhängigen Degradation verantwortlich, indem sie über ihre Substrat-Binde Domäne im C-Terminus mit den abzubauenden Targetproteinen interagieren. Die spezifische Interaktion der SIAH Proteine mit dem AF4•N Protein konnte in unabhängigen Experimenten sowohl in vitro als auch in vivo bestätigt werden. Durch den Einsatz des Proteasom-Inhibitors MG132 konnte zudem der effiziente, SIAH1-vermittelte und Proteasom-abhängige Abbau von AF4•N demonstriert werden. Mit weiterführenden Experimenten konnte auch für das Wildtyp AF4 Protein und für das AF4•MLL Fusionsprotein eine Regulation der Proteinstabilität über das SIAH1 Protein festgestellt werden. Eine SIAH1-vermittelte Degradation ist jedoch nur auf das AF4•MLL full-length Fusionsprotein beschränkt. Eine proteolytische Spaltung des AF4•MLL Fusionsproteins durch die Protease Taspase1 innerhalb des MLL Fusionsanteils führte zur Bildung eines stabilen der4•N/MLL•C Proteinkomplexes und dessen Akkumulation in den Zellen. Basierend auf diesen Ergebnissen konnte für t(4;11) Translokationen ein erster pathomolekularer Mechanismus zur Leukämie-Entstehung aufgezeigt werden. Dieser beruht im wesentlichen auf der Akkumulation des der4•N/MLL•C Proteinkomplexes, welcher sich der effizienten Kontrolle durch die E3 Ubiquitin Ligase SIAH1 entzieht. Dadurch wird der Wachstums-transformierende AF4•N Proteinanteil in die Lage versetzt sein onkogenes Potential zu vermitteln.
Mit dem murinen monoklonalen Antikörper MAb 425 ist prinzipiell die immunszintigraphische Lokalisationsdiagnostik und die Rezeptorbestimmung in vivo bei EGF-Rezeptor überexprimierenden gynäkolgischen Tumoren möglich. In der durchgeführten Studie in der 17 Patientinnen mit gynäkologischen Tumoren untersucht wurden, konnte in einigen Fällen der Primärtumor/ bzw. das Lokalrezidiv und auch Metastasen nachgewiesen werden. Bei 6 von 11 Patientinnen mit Primärtumor und/oder Lokalrezidiv konnte mit der EGF-Rezeptorszintigraphie der Tumor nachgewiesen werden, bei paraaortaler Lymphknotenmetastasierung waren es 5 von 8 Patientinnen. Insbesondere bei Patientinnen mit undifferenzierten, fortgeschrittenen Plattenepithel-Karzinomen, v. a. mit Zervix-Karzinom (und evtl. paraaortaler Lymphknotenmetastasierung) scheint eine Überexpression häufiger vorzukommen und damit die Möglichkeit gegeben den Tumor und/oder die Metastasen mit dieser Methode nachzuweisen. Auch in den Fällen, bei denen im Vorfeld die EGFR-Überexpression mittels immunhistologischer Verfahren nachgewiesen wurde, besteht mit der anti-EGF-Rezeptorszintigraphie ein sinnvoller Ansatz eine Lokalisationsdiagnostik vorzunehmen. Die Sensitivität dieser Methode ist aber zu gering, um sie als Staging-Verfahren bei diesen Tumoren zu verwenden. Bei den biokinetischen Messungen zeigte sich für den verwendeten Antikörper eine 3-Phasen Kinetik mit einer schnellen Elimination aus dem Blutpool (T ½ = 6,5 min.), einer Verteilung (T ½ = 53 min.) und einer weiteren Distribution und gleichzeitige Elimination (T ½ = 21,9 h). Diese Ergebnisse decken sich mit den Daten von anderen Arbeitsgruppen und können als Grundlage für dosimetrische Berechnungen für radioimmuntherapeutische Ansätze mit dem genannten Antikörper dienen. Hervorzuheben ist die Tatsache, dass mit der antiEGFRezeptorszintigraphie der EGF-Rezeptorstatus in vivo bestimmt werden kann. Dies könnte in Zukunft Implikationen haben für die Selektion von Patientinnen für bestimmte Therapieformen deren Zielstruktur der Rezeptor selbst (wie z.B. Cetuximab/Erbitux®) oder dessen Signaltransduktions-Kaskade (wie z. B. Gefitinib/Iressa® oder Erlotinib/Tarceva®) darstellt. Prinzipiell ist auch eine mögliche Änderung der Rezeptorexpression im Verlauf einer solchen Therapie nachweisbar, was Auswirkungen auf die Therapiestrategie haben könnte. Dies müsste in weiteren Studien näher untersucht werden.
Die Ergebnisse dieser Untersuchung zeigen, dass trotz der Verwendung von photochromen Unterfüllungsmaterialien, bei der Revision einer Kunststofffüllung eine Überextension der Kavität auftritt. In dieser Studie konnte kein signifikanter Unterschied in dem Zahnhartsubstanzverlustniveau zwischen konventionellen Kompositrestaurationen und jenen mit photochromer Unterfüllung festgestellt werden. Auch treten in beiden Gruppen Füllungsreste trotz möglichst genauer Vorgehensweise auf. Eindeutig und auch erwartungsgemäß wiesen die Kavitäten nach der Entfernung von Amalgamfüllungen keine oder nur eine minimale Überextension und keine Materialüberschüsse auf. Weiterführende Versuche werden zeigen, ob mit der Ausdehnung der farbaktiven Unterfüllung bis an die Kavitätenränder, eine deutliche Verbesserung der Revisionswerte erzielt werden kann oder nicht [57]. Dass die Revisionszeit von Kunststofffüllungsmaterialien sich durch photochrome Materialien verkürzen lässt, konnte in der vorliegenden Untersuchung eindeutig bewiesen werden. Abschließend kann man sagen, dass die Verwendung von photochromen Kunststoffen eine Erleichterung der späteren Revision ermöglicht. Die Verwendung dieser Materialien sollte, um bessere Ergebnisse im Bezug auf Vollständigkeit der Revision und Vermeidung der Überextension der Kavität zu erhalten, in einer anderen Art und Weise erfolgen. Möglich ist eine Ausdehnung dieser Unterfüllung über die komplette Kavitätenfläche. Dabei können jedoch im Frontzahnbereich ästhetische Probleme auftreten, die die Verwendung der Materialien in diesem Bereich nur auf die Unterfüllung im klassischen Sinne mit den in dieser Studie aufgeführten Nachteilen limitieren. Die hier vorliegenden Ergebnisse wurden aus einer in vitro Untersuchung gewonnen. Durch die bekannte und einfache Kavitätenform sowie durch die optimale Zugänglichkeit der Kavität können aus diesen Ergebnissen keine eindeutigen Rückschlüsse auf eine Arbeitserleichterung in vivo gezogen werden.
In der vorliegenden Untersuchung wurden sechzig Kunststoffkanäle mit drei verschiedenen maschinellen Aufbereitungssystemen unter Anwendung der ProFile.04 untersucht. Untersuchungskriterien waren Kanalanatomie, Aufbereitungsdauer, Arbeitslängenverlust, Gewichtsverlust, Elbow-Zip-Effekte und Instrurnentenfraktur. Die höchsten Abträge waren mit dem TCM-Endo zu erreichen, nur am Meßpunkt 3 lagen die Gesamtabträge des Endo-Steppers geringfügig höher. Im Bereich der Krümmung neigte das Instrument dazu mehr an der Kanalaußenwand abzutragen. Je mehr das Instrument von der Kanalkrümmung entfernt war, um so mehr trug es an der Kanalinnenseite ab. Dies ist ein Phänomen, das bereits von einigen Autoren beschrieben wurde (17,29,63,82a). Die Aufbereitungsdauer war bei allen drei Motoren zu hoch. Die Zeitersparnis, die bei maschinellen Aufbereitungssystemen u.a. einen wichtigen Vorteil darstellt, konnte in dieser Studie nicht erreicht werden. Die sehr häufigen Rekapitulationen, das Einschneiden bzw. Verklemmen der Instrumente im Kanal und die sich meistens zu spät einschaltende Rückrotation des Instruments führten zu großen Zeitverlusten, die nicht vertretbar sind. Das Verblocken der Kanäle, das sowohl durch die Aufbereitungstechnik, als auch durch den Kunststoff bedingt sein kann, verursachte große Arbeitslängenverluste beim Tri- Auto-ZX und Endo-Stepper. Das TCM-Endo wies das beste Ergebnis mit einem durchschnittlichen Arbeitslängenverlust von 1,5 rnm auf, hatte jedoch die höchste Frakturrate mit acht Frakturen. Es könnte durchaus möglich sein, daß Kunststoflkanäle einen größeren Drehmoment benötigen als natürliche Zähne, und daher das TCM-Endo geringere Arbeitslängenverluste aber dafür mehr Frakturen nachwies. Dies soll nicht heißen, daß Kunststoflkanäle nicht für diese Studie geeignet ist. Eine Studie anhand natürlicher Zähne hätte ebenfalls Nachteile. Es wäre nicht möglich exakt identische natürliche Wurzelkanäle mit der selben Krümmung zu finden, demzufolge wäre ein Vergleich unter gleichen Voraussetzungen nicht möglich. D.h. um die Arbeitslänge besser erreichen zu können, wird ein großes Drehmoment benötigt, welches wiederum für die ProFile nicht gefahrlos ist. Die zu hohen Drehmomente beim Tri-Auto-ZX (7,105 Ncm) und TCM-Endo (1Ncm) erklären die häufigen Frakturen, denn beim Endo-Stepper, der niedrigere Drehmomente hat, traten keine Frakturen auf. Das Tri- Auto-ZX hatte zwar ein hohes Drehmoment aber auch eine hohe Geschwindigkeit, deshalb kam es hier ebenfalls zu Arbeitslängenverlusten. Die zu schnelle Drehgeschwindigkeit könnte dazu geführt haben, daß der Kanal mit Spänen blockiert wurde, bevor der Freiraum des Instrumentes die Späne heraustransportieren konnte. Die Gewichtsverluste waren sehr gering. Elbow- und Zip-Effqkte waren sehr schwach ausgeprägt. Frakturen waren, wie bereits erwähnt, beim TCM-Endo (8) und Tri-Auto-Zx (4) zu beobachten, die sicherlich neben dem hohen Drehmoment auch durch den U-förmigen Querschnitt des Instrumentes bedingt waren. Denn dieser Querschnitt stellt eine Schwachstelle dar, der bei Widerstand leichter frakturieren könnte. Es ist durchaus denkbar, daß ein U-förmiger Querschnitt weniger Widerstand gegen Bruch leisten kann als z.B. ein konvexer Querschnitt. Diese drei Motoren eignen sich in dieser Weise nicht fur die Wurzelkanalaufbereitung, man darf jedoch nicht vergessen, daß in dieser Versuchsreihe Kunststoffblöcke Anwendung fanden und keine natürlichen Zähne. Der Endo-Stepper könnte an natürlichen Zähnen oder in Kombination mit einem anderen Instrument eventuell diese hohen Arbeitslängenverluste nicht nachweisen, wär dann ohne Frakturen der sicherste Motor in dieser Studie.
Antiaging ist en vogue. Viele Menschen nutzen diesen Begriff, verstehen darunter jedoch ganz unterschiedliche Dinge. Das Spektrum reicht von Gymnastik für ältere Menschen bis hin zu Maßnahmen der plastischen Chirurgie im Sinne einer »Schönheitschirurgie «, von sinnvollen und richtigen Angeboten bis hin zu Dingen, deren Nähe zur Scharlatanerie aus Sicht der Schulmedizin nicht zu verkennen ist. Dieser Artikel soll einen Überblick geben über die Aspekte des Antiaging, die einer Betrachtung aus Sicht der wissenschaftlich orientierten Medizin zugänglich sind.
In der vorliegenden Studie sollte untersucht werden, ob es möglich sei, die Stimmung eines Menschen nur anhand der Stimme einzuschätzen und ob daraus ein neues diagnostisches Mittel resultieren könne. Dazu wurden die Stimmen von 20 ambulanten und stationären Patienten und 4 gesunden Probanden in verschiedenen Stimmungslagen aufgezeichnet und mittels CD 91 Zuhörern (Ratern) präsentiert. Anhand der Stimme sollten die Zuhörer ihre Beurteilung über die Stimmung der Testpersonen auf eine Visuelle- Analog- Skala (VAS) eintragen. Diese Einschätzung wurden mit den Ergebnissen der standardisierten Befindlichkeitsmessungen des Hamilton - Scores ( Fragebogen zur Untersuchung von Depressivität ), der Hell-Dunkel-Skala (Optische Darstellung der Gemütslage) und dem Befindlichkeitstests nach v. Zerrsen (Selbstbeobachtungsfragebogen zur Befindlichkeit ) verglichen. Zusammenfassend kann gesagt werden, daß: • anhand der Stimme depressive Menschen von gesunden Menschen unterschieden werden können, aber eine Einteilung der Schwere der Depressivität in der Mehrzahl der Fälle nicht gelingt. Menschen, deren Stimmungslage „nur“ gedrückt ist, werden meist zu depressiv bewertet. Die Korrelationsergebnisse zwischen Stimmeinschätzung und standardisierter Befindlichkeitsmessung lagen unter den Ergebnissen, die sich aus dem Vergleich zwischen den standardisierten Testverfahren ergaben. • Zwischen den Berufsgruppen ergaben sich keine signifikanten Unterschiede. In der Gruppe der medizinischen Berufe zeigte sich die Tendenz, daß Psychiater, sowie Ärzte ohne psychiatrische Ausbildung und Krankenpfleger, die in der Psychiatrie tätig sind insgesamt am besten bewerteten. Personen ohne medizinische Erfahrung mit Abitur bewerten jedoch besser als die eben genannten Berufsgruppen. • Einfluß auf den Erfolg der Stimmeinschätzung : haben die individuelle Begabung und das Bildungsniveau des Raters. Weniger Einfluß als erwartet nimmt die Erfahrung auf dem medizinisch – psychiatrischen Gebiet. Die Fähigkeit der richtigen Stimmeinschätzung sinkt mit der Anzahl der Stimmproben. Die Grenze liegt bei 3 Aufnahmen. • Keinen Einfluß auf den Erfolg der Stimmeinschätzung : nahm Geschlecht, Alter und Selbsteinschätzung der eigenen psychiatrisch – psychologischen Erfahrungen der Rater. Diagnose, Hamd-Score und das Kennen der einzuschätzenden Patienten nahmen ebenfalls keinen Einfluß. Die allgemeine Anwendung der subjektiven Stimmeinschätzung im klinischen Alltag ist nur eingeschränkt anwendbar und führt zu individuell unterschiedlichen Erfolgen. Sie kann als Ergänzung angesehen werden, wird aber sicherlich keine der standardisierten Befindlichkeitsmessungen ersetzen können. Letztendlich konnte die Frage nach der Einflußgröße für eine gute Einschätzung der Befindlichkeit anhand der Stimme nicht geklärt werden, welche in weiteren Studien zu untersuchen wäre.
Funktionelle Langzeitergebnisse nach Hüftgelenksprothesenexplantation (Girdlestone-Situation)
(2004)
Studienziel: Ziel der Arbeit war die Identifikation prognostischer Faktoren, die die zu erwartende Funktion einer Girdlestone-Arthroplastik vorhersagen. Methode: Retrospektiv wurde das Kollektiv einer Klinik von 87 Patienten, 90 Hüften analysiert, die zwischen 1983 und 2000 mit Anlage einer Girdlestone-Hüfte behandelt worden waren. Ergebnisse: Hüftscores ergaben durchschnittlich 38.7 Punkte (Harris Hip Score) und 3.5 Punkte (Score nach Merle d’Aubigné und Postel). Die Standzeit der Girdlestone-Hüfte, im Durchschnitt 90.6 Monate, und das funktionelle Ergebnis korrelierten nicht (r = 0.0920; p = 0.6289). D.h. die Funktion einer Girdlestone-Arthroplastik wurde mit zunehmender Zeit nicht schlechter. Die Anzahl der implantierten Hüftprothesen vor Girdlestone-Anlage korrelierte nicht mit dem funktionellen Ergebnis der Girdlestone-Hüfte bei Nachuntersuchung (r = - 0.1400; p = 0.4524). Die Standzeit der letzten explantierten Hüftprothese, im Mittel 44.6 Monate, und die Funktion der Girdlestone-Hüfte korrelierten nicht (r = - 0.0705; p = 0.7065). Lebensalter bei Erstimplantation der Hüftprothese, Lebensalter zum Zeitpunkt der Nachuntersuchung oder Lebensalter bei Anlage der Girdlestone-Hüfte korrelierten nicht mit dem Harris Hip Score (r = - 0.0367; p = 0.8418 sowie r = 0.1527; p = 0.4121 sowie r = - 0.0151; p = 0.9356). Die Notwendigkeit einer Revision der Girdlestone-Hüfte und das Vorhandensein eines Diabetes korrelierten (p = 0.0104). Die Korrelation zwischen verbliebenem Knochenzement und radiologischen Zeichen eines persistierenden Infektes war signifikant (p = 0.0572). Schlussfolgerung: Das Lebensalter des Patienten, der Zeitraum seit Girdlestone-Anlage, die Zahl vorangegangener HTEP-Wechsel waren keine geeigneten prognostischen Merkmale, die Funktion einer Girdlestone-Hüfte vorherzusagen.
Bis zur Entfaltung der Wirkung eines Pharmakons laufen zahlreiche komplexe Vorgänge ab, die sich in drei wesentliche Phasen unterteilen lassen. Die pharmazeutische Phase umfasst mit der Applikation und dem Zerfall der Arzneiform sowie dem Auflösen des Wirkstoffes Vorgänge, die im wesentlichen von den galenischen Eigenschaften des Arzneistoffes abhängen. In der pharmakokinetischen Phase erfolgt mit der Resorption die Aufnahme des Wirkstoffes in den Organismus, dem sich die Verteilung in die unterschiedlichen Gewebe über die Blutbahn anschließt. Durch verschiedene Eliminationsprozesse wird der Wirkstoff zuletzt wieder aus dem Körper ausgeschieden. Mit dem Erreichen des Wirkortes beginnt die pharmakodynamische Phase, in der die pharmakologischen Effekte des Arzneistoffes zur erwünschten klinischen Wirkung führen. Der Nachweis des Pharmakons am Wirkort in klinisch-relevanten Konzentrationen ermöglicht somit Rückschlüsse auf die Wirksamkeit des Arzneistoffes, aber unter bestimmten Voraussetzungen auch auf dessen Wirkmechanismus. Während mittlerweile ein Großteil neuer Arzneistoffe mit Hilfe unterschiedlicher Mechanismen durch exaktes Drug Targeting an den Wirkort gesteuert werden, weisen andere Substanzen teilweise ungewollt eine gewebespezifische, dirigierende Komponente auf, die neben der eigentlichen Hauptwirkung weitere unterstützende oder auch unerwünschte Effekte auslösen. Von besonderem Interesse ist diese Gewebespezifität für pflanzliche Arzneistoffe, deren Wirkkomponenten bislang noch nicht eindeutig bestimmt werden konnten. Gemeinsam mit anderen pharmakologischen Befunden kann der analytische Nachweis eines wirksamkeitsmitbestimmenden Inhaltsstoffes am Wirkort in ausreichenden Konzentrationen ein weiterer deutlicher Hinweis auf dessen Wirkbeteiligung sein. Besonders vor dem Hintergrund einer rationalen, evidenz-basierten Pharmakotherapie, deren Anforderungen die pflanzlichen Arzneien mittlerweile ebenso wie die synthetischen Wirkstoffe erfüllen müssen, ist die Erforschung sowohl des Wirkprinzips als auch der Pharmakokinetik des Wirkstoffes von besonderer Bedeutung. Obwohl Johanniskrautextrakte bereits seit dem 17. Jahrhundert gegen die Melancholie und somit als Antidepressivum eingesetzt wurden, sind sowohl der exakte Pathomechanismus der Depression als auch die Wirkkomponente und der Wirkmechanismus der Extrakte aus Hyperici herba noch immer Gegenstand umfassender Forschung. Vor allem wegen der geringen Nebenwirkungsrate sind Johanniskrautpräparate gegenüber synthetischen Antidepressiva eine bevorzugte Alternative für die Therapie leichter bis mittelschwerer Depressionen. Ähnlich den Effekten der synthetischen Antidepressiva sind Johanniskrautextrakte in der Lage, durch eine Wiederaufnahmehemmung der Neurotransmitter Noradrenalin, Serotonin, Dopamin, sowie GABA und L-Glutamat deren Konzentration im synaptischen Spalt zu erhöhen, was zu einer nachfolgenden adaptiven Veränderung der jeweiligen Rezeptoren führt. In mehreren Studien konnten diese Effekte vornehmlich den Phloroglucinolderivaten Hyperforin und Adhyperforin zugeordnet werden. Unterstützt wurden diese in vitro und in vivo Befunde durch die Ergebnisse einer Vielzahl verhaltenspharmakologischer Untersuchungen, die einen deutlichen Zusammenhang zwischen der Wirksamkeit in antidepressiven Modellen und dem Gehalt an Hyperforin in den Extrakten ergeben haben. Zahlreiche klinische Studien belegen darüber hinaus die Wirksamkeit und Verträglichkeit von Johanniskrautextrakten. ...
Solange es nur um die großen Namen unter ihren Beiträger geht, gehört die „Allgemeine Literatur-Zeitung“ zum Prominentesten in Literatur und Philosophie um 1800: Kant und Fichte zählen dazu, Schiller und August Wilhelm Schlegel. Auch sind, obwohl es sich hier ausschließlich um Rezensionen, also Sekundärliteratur handelt, einige ihrer Beiträge in den Kanon eingerückt: allen voran Schillers Bürger-Rezension. Ebenso ist Kants Besprechung von Herders „Ideen zur Philosophie der Geschichte der Menschheit“ über den Kreis der Kant-Spezialisten hinaus gegenwärtig. Dass hier bedeutende Namen über bedeutende Werke schreiben: das hielt die Erinnerung an die „A. L. Z.“ in einer an Namen und Werken orientierten Literatur- und Philosophiegeschichtsschreibung wach. Allerdings nur als Quellenangabe. Denn die Texte selbst liest man längst in den Werkausgaben, in die all das eingegangen ist, was der Germanistik und der akademischen Philosophie an der „A. L. Z.“ wichtig erschien. Die Zeitschriftenforschung, die alternativ zur Personen- und Werkgeschichte nach der eigenen Kontur dieses Mediums fragt, hat sich die „A. L. Z.“ noch kaum vorgenommen. Noch die jüngeren Beiträge, die ausdrücklich über diese Zeitschrift und nicht nur über deren berühmte Beiträger reden wollen, halten sich an Namen. So ist sie zum einen als Promulgator des Kantianismus vorgestellt worden, zum anderen als Kontrasthintergrund, von dem sich die Polemik der Brüder Schlegel abhebt.
Der Nobelpreis ist immer ein Politikum. Jedes Jahr auf Neue wird auch spekuliert, welche Gründe jenseits des Werkes des ausgezeichneten Autors noch eine Rolle gespielt haben mögen: Geschlecht, Hautfarbe, Herkunftsland, Kontinent, nicht-literarische Aktivitäten oder was man sonst noch so anführen mag. Man darf solche literaturfernen Gründe für einen Literaturnobelpreis nicht grundsätzlich kritisieren. Wären sie nicht im Spiel, wäre es schwieriger, gegenüber dem dominanten westlichen mainstream die Literaturen aus eher peripheren Kulturkreisen überhaupt hervorzuheben. Und insofern hat der Literaturpreis auch die Funktion, die Aufmerksamkeit der literarischen Weltöffentlichkeit zu lenken. Doch dieses Jahr [2004] landet der Literaturnobelpreis in Österreich und damit auch in einem historischen Zentrum der westlichen Kultur – die Österreicher hören’s gern. Elfriede Jelinek ist eine klassische Autorin, wenn man das so sagen kann. [...] Elfriede Jelinek hat Österreich viel zu verdanken – nämlich ihr Werk. Und jetzt hat auch noch Österreich Elfriede Jelinek den Literaturnobelpreis zu verdanken!
In Blumenbergs „Arbeit am Mythos“ zeigt sich der Philosoph als vergleichender Literaturwissenschaftler. Und dies nicht im Nebenberuf, nicht zur interdisziplinären Ergänzung, sondern im Hauptgeschäft. Blumenbergs philosophische Erklärung des Mythos handelt nicht begrifflich abstrakt von ihrem Gegenstand, sie folgt vielmehr ganz den konkreten literarischen Überlieferungen und deren Darstellungsvielfalt. Begriffliche Orientierungen – grundsätzlich die, dass der Mythos menschliche Selbstbehauptung gegen Absolutismus der Wirklichkeit sei – werden gegeben, doch treten sie gegenüber dem Interesse am Stoffgeschichtlichen, an den literarischen Variationen etwa Prometheus-, der Odysseus- oder der Faust-Figur zurück. Damit vertritt und vollzieht Blumenberg den Primat der erzählenden Imaginationen vor jeder thematisch lehrhaften Zuordnung, den Primat der Geschichten vor dem, was religiöse, kosmologische, physikalische, moralische, historische, psychologische und andere Deutung aus ihren abstrahiert. „Komparatistik als Arbeit am Mythos“ kann also zur Beschreibung von Blumenbergs eigener Methode dienen, so wie umgekehrt seine Mythos-Philosophie der literaturwissenschaftlichen Beschäftigung mit den Mythen über alle stoffgeschichtliche Materialverwaltung hinaus eine eigene theoretische Dimension gibt.
Das im Rahmen dieser Arbeit durchgeführte Experiment hatte zum Ziel Interferenzeffekte beim dissoziativen Ladungstransfer bei Molekülion-Atomstößen zu beobachten. Interferenzeffekte in Molekül-Atomstößen wurden von McGuire hervorgesagt und berechnet [4]. Diese Arbeit betrachtet ein ähnlichen Reaktionssystem. Die von ihm vorausgesagten Effekte wurden bestätigt. Das Experiment hat es ermöglicht, Interferenzen für alle Molekülorientierungen zu betrachten, womit man leicht Analogien zu zwei speziellen Fällen herstellen kann: mit der Molekülachse senkrecht zur Strahlrichtung entsteht eine Situation ähnlich einem Doppelspalt, bei dem die Kerne des Moleküls als Reaktionszentrum an Stelle der Spalte treten; mit der Molekülachse in Strahlrichtung entsteht eine Situation bei der Streuung an einem einzelnen Atom. In allem Molekülorientierungen erkennt man ein ringförmiges Minimum bei 1.6 a.u., wie es insbesondere bei der Beugung einem einzelnen Atom zu beobachten ist. Bei senkrechter Stellung der Molekülachse zur z-Achse überlagert durch die Streifen eines Doppelspaltes. Es war außerdem möglich den Endzustand der Teilchen zu bestimmen, so daß man sagen konnte, ob eine Teilchen angeregt aus der Reaktion hervorgegangen ist oder ob es über metastabile Zwischenzustände zerfallen ist. So ließ sich für den Impulsübertrag von 1.6 au eine Besonderheit feststellen: ein Minimum läßt sich nur im direkten Kanal ohne Anregung beobachten. Findet der Zerfall hingegen über metastabile Zwischenzustände ohne Anregung statt, so weist dieser Kanal bei etwa 1.6 au ein Maximum auf. Parallel zur Durchführung dieser Arbeit wurden erste Tests mit einem digitalen Oszillographen von Aquiris gemacht. Dieser speichert den Spannungsverlauf der Spannung an den Delaylineanoden. Peaks müssen dann schnell genug erkannt und ausgewertet werden. In der Offlineanalyse wären dann eng nebeneinander oder übereinanderliegende Peaks besser als solche zu erkennen. Diese würde die Totzeitproblematik, die sie durch die Dissoziation eines Moleküls senkrecht zur z-Achse entsteht, erheblich entschärfen.
Die vorliegende Diplomarbeit lässt sich dem Gebiet der Terahertz-Physik (THz-Physik) zuordnen, also dem Gebiet der Physik, das sich mit der Erzeugung und Detektion von Ferninfrarotstrahlung beschäftigt. THz-Strahlung stellt dabei die Verbindung zwischen den elektromagnetischen Mikrowellen und den Wellen des infraroten Frequenzbereiches dar. Damit umfasst der THz-Bereich Frequenzen von etwa 100 GHz bis zu 100 THz. Die Forschung, die sich mit diesem Frequenzbereich beschäftigt, ist mittlerweile stark differenziert. Dabei geht es auf der einen Seite um die Entwicklung neuer bzw. die Weiterentwicklung und Optimierung bestehender THz-Erzeugungs- und Detektionsverfahren, auf der anderen Seite geht es um die Frage nach den möglichen Anwendungsgebieten für die entwickelten THz-Techniken. Entwickelt werden sowohl gepulste wie auch Dauerstrich-THz-Systeme, die auf einer Vielzahl verschiedener physikalischer Emissionsprozesse basieren. Die Anwendungsseite der THz-Forschung umfasst Gebiete wie die Spektroskopie, d.h. die Materialcharakterisierung und -untersuchung, aber auch komplexe biomedizinische Untersuchungsverfahren, wie z.B. die Krebsdiagnostik in der Onkologie. In der Bandbreite der weltweiten THz-Aktivitäten befindet sich diese Arbeit sowohl im Bereich der Entwicklung von THz-Techniken als auch in dem eher anwendungsbezogenen Bereich: Zunächst werden im zweiten Kapitel die verwendeten THz-Techniken und Messaufbauten vorgestellt, ebenso wie deren Funktionsweisen und speziellen Eigenschaften. Das dritte Kapitel beschäftigt sich mit der experimentellen Untersuchung von großflächigen THz-Emittern in gepulsten Lasersystemen. Diese weisen gegenüber den häufig verwendeten punktförmigen THz-Emittern einige grundlegende Unterschiede auf. Diese Unterschiede sollen zunächst durch die in das Kapitel einführenden theoretischen Grundlagen herausgearbeitet und danach anhand eines elektrooptischen Emitters und eines elektrisch vorgespannten Halbleiteremitters überprüft werden. In den folgenden Kapiteln wendet sich der Fokus dann mehr der Anwendung von THz-Strahlung zu. Dazu finden im vierten Kapitel Überlegungen und Experimente zu der Charakterisierung von, zunächst anorganischen, mehrschichtigen Systemen auf der Basis von Halbleiterstrukturen statt, die mit einem Ausblick auf eine biomedizinische Anwendung der THz-Strahlung, bei der Untersuchung von Zähnen, abgeschlossen werden. Im fünften Kapitel soll ein Silizium-Paraffin-Gemisch auf seine Stoffigenschaften untersucht werden. Für dieses Gemisch lassen sich die Stoffeigenschaften im THz-Bereich mittels des Mischungsverhältnisses der beiden Ausgangsmaterialien anpassen. Mögliche Anwendungen für ein solches Material sind indexangepasste Füllungen von Zwischenräumen, um störende Reflexionen an den jeweiligen Grenzflächen zu vermeiden; so wie die Konstruktion von Antireflexionsschichten für THz-Optiken. Beide Anwendungen werden in Form von Experimenten vorgestellt. Abschließend werden alle Ergebnisse in einem Fazit zusammengefasst, und es erfolgt ein Ausblick auf weitere Untersuchungen.
The volume changes of solid iodine under pressure are discussed with respect to the packing density of the atoms and to valence. The packing density of solid iodine which is 0.805 under ambient pressure increases to 0.976 in monoatomic iodine-II, 0.993 in iodine-III, and 1 in fcc iodine-IV. Simultaneously, the valence increases from 1 in the free molecule to 1.78 in the crystal structure under ambient pressure, 2.72 – 2.81 in iodine-II, 2.86 – 2.96 in iodine-III, and 3 in fcc iodine-IV. The valence then remains constant up to about 180 GPa and rises moderately to 3.15 at the highest investigated pressure of 276 GPa. Parameters for calculating bond numbers, valences and atomic volumes of densely packed halogens, hydrogen, oxygen, and nitrogen are given.
The volume changes of lithium and sodium under pressure are discussed with respect to the packing density of the atoms and their valence. In densely packed Li I (bcc), Li II (fcc), and Li III (alpha-Hg ype), valence increases from 1 at ~ 5 GPa to ~ 2.5 at 40 GPa. The maximum valence 3 is attained in Li IV (body-centered cubic, 16 atoms per cell, packing density q = 0.965) at 47 GPa. In densely packed Na I (bcc) a linear increase of valence from 1 at ~ 10 GPa to 2.9 at 65 GPa is found which continues in Na II (fcc) up to 4.1 at 103 GPa.
Ziel: Ziel der Untersuchungen war es, selektive und potente P2-Rezeptor-Antagonisten, die sich von Suramin und PPADS ableiten, zu ermitteln sowie die Charakterisierung UTP-sensitiver Rezeptoren in epididymalen Segmenten des Samenleiters der Ratte vorzunehmen. Methoden: Am Samenleiter der Ratte (P2X1-Rezeptoren) und dem Ileum des Meerschweinchens (P2Y1-Rezeptoren) wurden Kontraktions-Inhibitions-Studien durchgeführt. Zur Untersuchung des UTP-sensitiven Rezeptors im Samenleiter der Ratte wurden Kontraktions-, Kontraktions-Inhibitions-Studien und histochemische- bzw. immunzytochemische Studien herangezogen. Ergebnisse: Durch Struktur-Wirkungs-Beziehungen von Analoga des NF023, Suramin, NF279, PPADS und SB9 konnten symmetrische Suramin-Analoga, wie NF816 (pA2=6,45) und unsymmterische NF279-Analoga, wie NF786 (pA2=6,76), erhalten werden, die potent, selektiv und kompetitiv ADPßS-induzierte Kontraktionen des Meerschweinchen-Ileums antagonisierten. Auch die heterodimer-bivalente Verbindung SB9, erwies sich an nativen P2Y1 -Rezeptoren als potenter, selektiver und kompetitiver Antagonist (P2Y1:pA2=6,91 vs. P2X1: pA2=5,98). Darüber hinaus ist SB9 P2-Rezeptor-spezifisch und schwach wirksam an Ekto-Nukleotidasen von Oozyten des Südafrikanischen Krallenfrosches (IC50 = 40 MikroM). Zur Charakterisierung des UTP-sensitiven Rezeptors des Samenleiters der Ratte wurde Evans Blau verwendet. Es konnte gezeigt werden, dass Evans Blau die Spaltung von exogenem ATP zu 75 % hemmt. Insbesondere die glatte Muskulatur ist ATPase-aktiv. An epididymalen Segmenten ist UTP (100 MikroM Evans Blau) ein voller Agonist (EC50 = 36 MikroM). Die Kontraktion beruht auf der Aktivierung postsynaptischer Strukturen und wird nicht durch UDP oder Uridin beeinflusst. Mit Agonisten konnte in Anwesenheit von 100 MikroM Evans Blau folgende Reihe der Wirkstärke erhalten werden: natürliche Agonisten, Ap4A > ATP = ADP = UTP > UDP; synthetische Agonisten, 2MeSATP > ATPgammaS > ADPßS. In Anwesenheit von 100 MikroM Evans Blau wurden UTP-induzierte Kontraktionen durch PPADS (IC50 = 20 MikroM) und Reaktiv Blau 2 (IC50 = 43 MikroM) nicht aber durch Suramin und MRS 2179 gehemmt. P2Y2-Rezeptor-spezifische Antikörper ergaben die Expression von P2Y2-Rezeptoren auf der glatten Muskulatur des Samenleiter der Ratte. Schlußfolgerungen: Analoga als auch pharmakophore Gruppen des Suramins und PPADS eignen sich als Ausgangs-Verbindungen bzw. -Strukturen zur Synthese von potenten und Subtyp-selektiven P2-Rezeptor-Antagonisten. Die Wirkungen von UTP sind durch P2u-Rezeptoren vermittelt. Die Ergebnisse deuten auf die Beteiligung von P2Y2- bzw. P2Y4-Rezeptoren in epididymalen Segmenten des Sameneiters der Ratte hin.
Die therapeutische Replantation von Zähnen zählt zu den endochirurgischen Eingriffen, wenn alternative Therapiemethoden nicht zum Erhalt des Zahnes oder der Zahnwurzel geführt haben oder aufgrund der bestehenden Risiken (z.B. Gefährdung des Nervus mandibularis bei einer Wurzelspitzenresektion) vom Patienten abgelehnt werden. Im Gegensatz zu Zahnreplantationen, die in Zusammenhang mit einem Trauma stehen, können therapeutische Zahnreplantationen geplant durchgeführt werden. Ziel der vorliegenden Arbeit ist es, einen Vergleich zwischen zwei unterschiedlichen Replantationsmethoden anhand von histologischen Serienschnitten und klinisch erhobenen Röntgenbilder in einer tierexperimentellen Studie an zwei Mantelpavianen durchzuführen. Die beiden Replantationsarten unterscheiden sich in der extraoralen Phase des Zahnes. In der konventionellen Methodik wird der Zahn in der Extraktionszange bzw. mit den Fingern gehalten und die Wurzelhaut mit Ringerlösung benetzt. In einer von LAUER [81] entwickelten Methodik wird der zu replantierende Zahn atraumatisch in einer speziellen Haltevorrichtung fixiert und dabei die Wurzeln in eine gekühlte, semisolide Nährlösung [72,81] eingebettet. Es besteht dadurch ein besserer Schutz des Desmodonts vor mechanischen, chemischen und thermischen Noxen während der extraoralen Therapiephase des Zahnes. Als Versuchsdesign wurde das Split-mouth-design gewählt. Jeder Zahn ist dabei eine Einheit für sich. Dadurch sind die Ergebnisse nicht nur vergleichbar, sondern auch präzise, da sie unter anderem vom Gesundheitszustand des Versuchstieres unabhängig sind. 82 Tage nach dem operativen Eingriff wurden die Versuchstiere geopfert. Vor den Replantationen und vor der Opferung wurden jeweils Röntgenbilder angefertigt. Die Auswertung der Röntgenbilder war aufgrund von Fehlinterpretationen, die anhand von Vergleichen zu histologischen Präparaten diagnostiziert wurden, nicht zielführend. Die histologische Aufarbeitung des Zahnhalteapparates erfolgte in axialen Serienschnitten zum Wurzelquerschnitt. In Anlehnung an ANDREASEN [9] wurde der Zustand des Desmodonts in fünf Klassen differenziert. Der Klassifizierungsdurchschnitt wies bei der die modifizierten Replantationsmethode nach LAUER mit einem Wert von 2,42 gegenüber der konventionellen Replantationsmethode mit einem Wert von 3,31 einen signifikant verbesserten Wert auf. Die nach der Lauer-Methode replantierten Zähne heilten besser ein, erreichten jedoch nicht die Vergleichswerte von nicht reimplantierten Zähnen (1,52). Auch die statistischen Testverfahren im Rahmen einer einfaktoriellen Varianzanalyse (ANOVA) zeigen signifikante Unterschiede bei der histologischen Bewertung des Desmodonts. Sowohl die Grundgesamtheit der Klassifizierungsmittelwerte pro Wurzel als auch die Grundgesamtheit der schlechtesten Desmodontbewertung pro Wurzel fallen bei keinem der angewandten Tests durch. Die Verteilung der Klassifizierungsmittelwerte pro Wurzel weist eindeutig auf einen Trend hin. Die innovative Replantationsmethode nach Lauer weist einen besser bewerteten Zustand des Desmodonts auf als bei der konventionellen Replantationsmethode. Die Ernährung, die Kühlung und der Kontaminationsschutz des Desmodonts während der extraoralen Therapiephase scheinen eine erhöhte Überlebensrate der Fibroblastenzelle zu verursachen. Dies führt zu der statistisch signifikant verbesserten Einheilung eines nach Lauer replantierten Zahnes.
Wasserstoffbrücken als strukturbildendes Element : Synthese und Berechnung supramolekularer Komplexe
(2004)
Die nicht-kovalente Synthese sowie die Berechnung der supramolekularen Komplexe wurden anhand dreier unterschiedlicher Stoffklassen demonstriert. Ziel war es, supramolekulare Dimere zu kristallisieren, die durch zwei Wasserstoffbrücken zusammengehalten werden. Die zuerst untersuchten Indol-Derivate waren potentiell selbstkomplementär. Während der Donor im starren Indol-Ring lag, befand sich der Akzeptor in der Seitenkette, was zu konformationell flexiblen Verbindungen führte. Durch Variation des Abstandes von Donor und Akzeptor, was einer Verlängerung der Seitenkette durch zusätzliche CH2-Gruppen entsprach, sollte herausgefunden werden, bei welcher geometrischen Anordnung dimere Komplexe entstehen Die Ergebnisse zeigten, daß die gewünschten Dimere erst bei einer Kettenlänge von drei CH2-Gruppen um Kristall zu beobachten waren. Diese konformationell flexiblen Verbindungen wiesen somit große Unterschiede zwischen berechneter und realer Komplexgeometrie auf, die darauf zurückzuführen sind, daß im Kristall eine Vielzahl von Molekülen wechselwirken, während in der Rechnung mit dem Kraftfeldprogramm MOMO nur zwei Moleküle berücksichtigt werden. Somit führt die „Sandwich“-Form zu einer günstigeren van-der-Waals-Energie als die planare Form. Im zweiten Abschnitt dieser Arbeit konzentrierten sich unsere Untersuchungen auf die Substanzklasse der Acetylhydrazone, welche ebenfalls potentiell selbstkomplementäre Verbindungen darstellen. Im Gegensatz zu den Indol-Derivaten wurde hier der Abstand zwischen Donor und Akzeptor konstant gehalten, um zu untersuchen, wie sich unterschiedliche Reste der Acetylhydrazone auf die Konformation der Moleküle und somit auch auf die Komplexgeometrie auswirken. Zu diesem Zweck wurde eine Reihe von Verbindungen mit Resten unterschiedlicher sterischer Hinderung synthetisiert. Ziel war es auch in dieser Verbindungsklasse gezielt Dimere mit zwei Wasserstoffbrücken zu kristallisieren. Eine Suche in der CSD zeigte schnell, daß Acetylhydrazone zwei Vorzugskonformationen besitzen: eine, in der Donor und Akzeptor eine anti-Anordnung besitzen, was in der Regel zu kettenförmigen Wasserstoffbrücken führt, und eine syn-Anordnung, die zu den gewünschten Dimeren führen sollte. Es galt nun zu untersuchen, welche dieser Reste zur syn-Konformation führt und welches die Vorzugskonformation der Acetylhydrazone ist. Die Untersuchungen zeigten, daß zwei sterisch anspruchsvolle Reste zur syn-Anordnung von Donor und Akzeptor führen und somit zu Dimeren im Kristall. Verbindungen mit zwei sterisch wenig anspruchsvollen Resten lagen hingegen in der anti-Konformation vor und bildeten wie erwartet Polymere. Für die Acetylhydrazone konnte folgende These aufgestellt werden: Die syn-Konformation entsteht, wenn beide Reste drei oder mehr (Kohlenstoff-) Atome besitzen, anderenfalls entsteht die anti-Anordnung. Die Rechnungen lieferten, bis auf eine Ausnahme, supramolekulare Dimere mit zwei Wasserstoffbrücken. Für jene Verbindungen, die ebenfalls in der syn-Konformation in Dimeren kristallisieren, ist die Übereinstimmung zwischen der berechneten und der realen Komplexgeometrie sehr gut. Im letzten Kapitel dieser Arbeit sollten heteromolekulare Komplexe, also solche, die aus zwei unterschiedlichen Molekülen bestehen, untersucht werden. Die erste der eingesetzten Verbindungen sollte zwei Donor-Gruppen enthalten, während die zweite Verbindung zwei Akzeptoren besitzen sollte. Dabei wurde eine Reihe von Diol-Dion-Komplexen untersucht. Dabei gelang es nur einen dieser Komplexe zu kristallisieren und experimentell zu untersuchen. Leider lagen keine Dimere vor, sondern es bildete sich ein 2:1-Komplex (Diol/Dion), der kettenförmige Wasserstoffbrücken ausbildete. Erfreulich war hingegen, daß eine Konformationänderung des Dions zu beobachten war; denn gegenüber der Kristallstruktur der reinen Verbindung lag 25 im Komplex als planare Verbindung vor. Gleichzeitig wurden die möglichen Komplexgeometrien mit MOMO berechnet. Die meisten der berechneten Komplexe wiesen Dimere mit den gewünschten zwei Wasserstoffbrücken auf.
Inhalt der vorliegenden Forschungsarbeit ist die Entwicklung und Validierung von Trainingsempfehlungen an jugendliche Basketballspieler für das Konditionstraining. Am Beispiel Basketball wurde das Forschungsziel verfolgt, ein Modell zu erarbeiten, dass die diagnostische Betreuung des Konditionstrainings von jugendlichen Mannschaftssportlern ermöglicht. Die Untersuchung am Institut für Sportwissenschaften (IfS) der Johann Wolfgang Goethe — Universität Frankfurt am Main als Diagnosezentrum erfolgte in Zusammenarbeit mit dem Basketball-Teilzeit-Internat Langen (BTI) als Trainingsinstitution. Die 35 jugendlichen Versuchspersonen waren weibliche und männliche D-und C-Kaderspieler des Hessischen Basketball Verbandes (HBV) und des Deutschen Basketball Bundes (DBB) im Alter von 13 bis 17 Jahren, die zusätzlich zum eigenen Vereinstraining, im BTI zwei- bis dreimal in der Woche individuell trainierten. Das erste Teilziel war die Auswahl einer Merkmalsstichprobe. Dabei mussten die Diagnosemöglichkeiten am IfS genauso wie die zeitlichen und ökonomischen Rahmenbedingungen des BTI-Trainings beachtet werden. Zudem musste eine für den Basketballsport adäquate Auswahl von konditionellen Leistungsfähigkeiten erfolgen, wofür eine detaillierte Betrachtung der Belastungs- und Beanspruchungsanforderungen im Jugendbasketball nötig war. Das entsprechende Literaturstudium deckte erhebliche Forschungsdefizite im Bereich der Belastungsanforderungen auf, was zunächst dazu führte, dass im Rahmen einer ersten Hauptuntersuchung eine Belastungsanalyse von Jugendbasketballspielen durchgeführt wurde. Nach der Entwicklung eines geeigneten wissenschaftlichen Beobachtungsinstruments, wurden allgemeine Spielmerkmale und Spielzeitstrukturen in je 20 Basketballspielen von Jungen- und Mädchenmannschaften der hessischen U16 Jugendoberliga (Saison 1999/00) systematisch beobachtet und ausgewertet. Beobachtungen von individuellen Belastungen und Spielleistungen erfolgten für jedes Geschlecht anhand von jeweils zehn Basketballspielen derselben Leistungs- und Altersklasse. Damit wurden in knapp 830 effektiven Spielminuten na. die zurückgelegten Laufstrecken, Sprunghäufigkeiten und die Anzahl der Ballaufsetzer (Dribbling) sowie die Anzahl von Pass-, Fang- und Wurfaktionen von jugendlichen Basketballspielern während eines Wettkampfspiels quantitativ erfasst. Die Beobachtungsergebnisse wurden in einem Belastungs- und Beanspruchungsprofil der Spielsportart Basketball mit den Ergebnissen von Forschungsarbeiten zur Beanspruchungsstruktur im Basketball zusammengefasst. Dies bildete gemeinsam mit der Analyse der Trainingsmöglichkeiten im BTI die Grundlage bei der Auswahl der zu untersuchenden konditionellen Fähigkeiten (Merkmalsstichprobe) und den dazu passenden Diagnosetests. Verschiedene kraftdiagnostische Testverfahren waren Teil einer ersten Erprobung des Diagnoseverfahrens im Rahmen einer Voruntersuchung, deren Erkenntnisse eine weitere Optimierung des Hauptdiagnoseverfahren möglich machten. Die zweite Hauptuntersuchung bestand aus fünf Diagnoseterminen, die in einem Abstand von sechs Monaten stattfanden. Die Diagnose der 15 ausgewählten Kraft-, Schnelligkeits- und Ausdauerfähigkeiten ermöglichte im Vergleich zu Normwerten eine detaillierte Einschätzung individueller Defizite der Versuchspersonen im Bereich der konditionellen Leistungsfähigkeit. Den Athleten wurde immer dann eine Trainingsempfehlung für einen Bereich ausgesprochen, wenn die individuelle Leistungsfähigkeit unter dem Richtwert lag. Zur Überprüfung der Trainingsergebnisse diente der darauf folgende Diagnosetermin als Ausgangsdiagnose. Anhand der Ergebnisse konnte durch verschiedene merkmalsinterne und merkmals-übergreifende Untersuchungen nachgewiesen werden, dass Leistungsdiagnosen und externe Trainingsempfehlungen durch Trainingsinstitutionen erfolgreich umgesetzt werden können. Damit helfen sie, das Konditionstraining von jugendlichen Mannschaftssportlern individuell zu differenzieren und zeitlich zu ökonomisieren. Dies hat, auch über das Konditionstraining hinaus positive Effekte auf die zeitliche und inhaltliche Gestaltung des Trainings. Es konnten bei allen Diagnosetests signifikante merkmalsinterne und merkmalsübergreifende Unterschiede der Leistungsentwicklungen zwischen Versuchspersonen mit und Versuchspersonen ohne Trainingsempfehlungen nachgewiesen werden, was auf eine erfolgreiche Individualisierung des Trainingsablaufs schließen lässt. Im Rahmen der diagnostischen Betreuung konnten zugunsten der zeitlichen Optimierung von individuellen Trainingsplänen ausreichende Leistungen konserviert werden und bei Versuchspersonen mit Leistungsdefiziten kam es zur Minimierung der Ist-Sollwert-Differenz. Zudem war eine signifikante Leistungshomogenisierung der Trainingsgruppen zu beobachten. Die diagnostische Betreuung ist nicht alleine auf die Diagnose von Leistungszuständen zu reduzieren, sondern umfasst in einem Planungs-, Steuerungs- und Regelungsprozess außerdem die begleitende Beratung der Trainingsinstitution. Das in dieser Forschungsarbeit beschriebene Modell zur diagnostischen Betreuung im Mannschaftsport bietet ein valides Mittel der Trainingssteuerung und ist über den Basketballsport hinaus übertragbar auf andere Mannschaftssportarten.
Man muss kein Marxist sein, um anzuerkennen, dass Unternehmer in kapitalistischen Industriegesellschaften ein gesellschaftlich außerordentlich mächtiges Interesse verkörpern. Angesichts der gegenwärtig zu beobachtenden politischen Kräfteverhältnisse erscheint diese Machtposition so gefestigt wie lange nicht mehr. Die vorgeblichen Zwänge der Globalisierung und ein politisch hegemonialer Marktradikalismus haben die Durchsetzungsfähigkeit politischer Unternehmerstrategien weiter gestärkt. Im Rahmen der voranschreitenden Ökonomisierung des Politischen werden die Verwertungsbedingungen zum zentralen Maßstab politischer „Reformprojekte“, wie dies in der gegenwärtigen Arbeitsmarkt- und Sozialpolitik der Bundesregierung deutlich zu erkennen ist. Da es sich dabei jedoch nicht um einen automatischen Prozess handelt, sondern um politische Auseinandersetzungen, deren Ausgang prinzipiell ungewiss ist, bleibt erklärungsbedürftig, wie sich das Verhältnis von Unternehmern und Politik im Einzelnen gestaltet. Die grundlegende Frage lautet, wie sich in einem parlamentarisch-demokratischen System, in dem formal alle gesellschaftlichen Gruppen den gleichen Zugang zu politischen Entscheidungsprozessen besitzen, ökonomische in politische Macht „übersetzt“. Im Folgenden sollen einige Facetten dieser Frage diskutiert werden. Dabei wird erstens die Quantität der „sozialen Gruppe“ der Unternehmer in der Bundesrepublik Deutschland umrissen, zweitens wird ihre politische Durchsetzungsfähigkeit im System kollektiven Interessenhandelns erörtert und drittens wird, anhand einiger klassentheoretischer Überlegungen, das Verhältnis von Homogenität und Fragmentierung unternehmerischer Interessen thematisiert.
Massenmedien sind als Teil unserer Alltagswelt zu Anbietern sozialer Handlungsmuster geworden. Ihr Anteil an der Identitätsentwicklung wird zwar je nach Standpunkt unterschiedlich eingeschätzt, ihre grundsätzliche Bedeutung für die Sozialisation der Individuen ist aber unbestritten. Die Sozialwissenschaften beziehen in ihre Forschungen und ihr Erkenntnisinteresse daher den Faktor "Medien" immer häufiger mit ein. ...
Schichten V/Al-Intermetallischer Phasen und Schichten aus V(Al) (Schichtdicken 150- 300 nm) wurden durch Interdiffusion von V/Al- und V5Al8/V-Mehrfachschichten bei 400-800°C im Vakuum bei 3 x 10-8 mbar hergestellt. Des Weiteren wurden V5Al8-Schichten durch Sputtern einer V5Al8-Legierung erzeugt. Die Gesamtstöchiometrie der Schichten lag zwischen Al0,86V0,14 und Al0,19V0,81. Als Substrat dienten einkristalline (012) Saphirwafer. Die V/Al-Intermetallischen Phasen und V(Al) wurden im RTP-System bei 600-1250°C mit NH 3 umgesetzt. Zum Vergleich der Reaktivität wurden die V/Al- und V5Al8/V-Mehrfachschichten auch ohne vorherige Vakuumtemperung in NH3 getempert. Die Proben wurden mittels XRD, SNMS, TEM/EFTEM, ESCA, XRR und AFM untersucht. Die V/Al-Mehrfachschichten besaßen eine starke Welligkeit, die von der starken Al-Schichtdickenschwankung herrührte. Trotz dieser Welligkeit zeigten die V- und Al-Schichten der V/Al-Mehrfachschicht eine ausgeprägte Textur. Die V-Schichten waren (110) und die Al-Schichten (111) texturiert. Die Bildung von (112) texturiertem Al3V erfolgte bereits bei 400°C, die Bildung von (110) texturiertem V 5Al8 und V(Al) bei 700°C. In der Nähe der Oberfläche durchmischten sich die V- und Al-Schichten aufgrund von O- und C-Einlagerung während der Vakuumtemperung nicht vollständig, und man beobachtete die Bildung von V-Oxiden. Je größer der V-Gehalt der Intermetallischen Verbindung bzw. V(Al), desto größer war die Reaktivität gegenüber Sauerstoff. Bei der Nitridierung der durch Interdiffusion gewonnen Intermetallischen Phasen Al3V und V5Al8 beobachtete man die Bildung von (001) texturiertem AlN an der Oberfläche. Durch die Nitridierung verarmte die Intermetallische Phase an Aluminium und es bildeten sich die V-reicheren Intermetallischen Verbindungen. Weitere Nitridierung führte zur Bildung von (001) texturiertem V2N. Bei der Nitridierung von V0,81(Al)0,19 bildete sich zunächst V(Al)(N), das bei weiterer Nitridierung zunächst in V2N und schließlich in VN und AlN überging. Das Reaktionsverhalten der Intermetallischen Phasen und der V(Al)-Phase stimmte weitestgehend mit dem von Yong Du et al. berechneten ternären Al/V/N-Phasendiagramm überein. Bei der Nitridierung von V0,61(Al)0,39 beobachtete man jedoch ebenfalls die Bildung von V2N. Dies widerspricht dem berechneten V/Al/N-Phasendiagramm, nachdem sich bei dieser Zusammensetzung auch AlN bilden sollte. Möglicherweise ist das Zweiphasengebiet V(Al)(N) + V2N breiter. Die Intermetallischen Phasen Al3V und V5Al8 zeigten im Vergleich zu reinem Vanadium eine stark verminderte Reaktivität gegenüber NH3. Dies ist auf die Passivierung der Oberfläche durch die AlN-Bildung zurückzuführen. Die ebenfalls schwächere Reaktivität der V(Al)-Phase lässt sich mit der geringen Löslichkeit an Stickstoff in V(Al) und der sehr wahrscheinlich höheren Aktivierungsenergie für die V2N-Bildung erklären. Die Reaktivität der V/Al-Mehrfachschichten war deutlich größer als die der Intermetallischen Phasen. Hierfür ist mit Sicherheit der höhere Anteil an Korngrenzendiffusion verantwortlich. Zum anderen könnte Vanadium die AlN-Bildung katalysieren. Bei der direkten Nitridierung wurde die oberste V-Schicht zu einer VN-Schicht umgesetzt. Die Nitridierung ist also nahe der Oberfläche schneller als die Interdiffusion der Metalle. In Richtung der Oberfläche beobachtete man eine stark ansteigende Al-Konzentration, wofür die im Vergleich zu VN höhere Freie Enthalpie von AlN verantwortlich ist. Durch das Sputtern einer V5Al8-Legierung konnte das Problem der Oxidbildung bei der Interdiffusion umgangen werden. Eine dünne Aluminiumoxidschicht bildete sich jedoch bereits schon bei der Lagerung an Luft. Die Reaktivität der gesputterten V5Al8-Schichten unterschied sich nicht wesentlich von der interdiffundierter V/Al-Mehrfachschichten vergleichbarer Stöchiometrie. Tiefenprofilanalysen an nitridierten V5Al8-Schichten machten deutlich, dass zwischen 600 und 900°C eine bemerkenswerte Menge an Sauerstoff in die AlN-Schicht eingebaut wurde. Ab 900°C stieg die Dicke der Aluminiumoxinitridschicht stark an. Eine weitere Temperaturerhöhung auf 1250°C führte zu keiner sign ifikanten Zunahme der AlN-Schichtdicke, jedoch zu einer starken Reduktion des O-Gehalts im AlN. Gleichzeitig beobachtete man bei 1250°C eine partielle Ablösung der AlN-Schicht.
Die Promotionsarbeit stellt sich die Aufgabe, den christlichen Missions- oder Sendungsbegriff in seinem nachkonziliaren Verständnis durch eigene Feldforschung empirisch zu überprüfen. Am Beispiel von überwiegend von Christen durchgeführter Entwicklungsarbeit mit Frauengruppen in Indien kann der v.a. geschichtlich belastete Missionsbegriff revidiert werden. Im Schnittfeld von Soziologie/Ethnologie einerseits und Praktischer sowie Systematischer Theologie andererseits stehend gliedert sich die Arbeit in drei große Teile: Theorie-Teil A. Untersuchung des bisherigen Missionsbegriffs, Empirie-Teil B. Theoriegenerierung aus den erhobenen Daten des Entwicklungsprojektes und Synthese-Teil C. Rückfragen aus der Projektanalyse an den christlichen Sendungsbegriff. Teil A diskutiert die mit dem Zweiten Vatikanum eingeläutete Wende des Missionsverständnisses weg von einer geographischen Begrenzung hin zu einer Wesensaktivität der Kirche und die teilweise Rücknahme dieses Neuverständnisses in nachkonziliaren kirchenamtlichen Dokumenten. Sodann wird das Verständnis von Mission bzw. christlicher Sendung in der heutigen theologischen Forschung unter Einschluss der indischen Theologie dargestellt. Gerade in Indien wird die historische Belastung des Begriffs Mission und zugleich ein Bedarf an missionarischen Handeln in Form von Zeugnis geben deutlich. Vier entscheidende Leitfragen, welche durch die Feldforschung zu beantworten sind, resultieren daraus: Wer betreibt Mission? Bei welcher Zielgruppe spricht man von Mission? Wie ist Mission einzugrenzen? Was ist eine missionarische Tätigkeit? Teil 3 wertet die Daten der Feldforschung in einem südindischen Dorf aus. Dabei gewährleistet die Methode der Grounded Theorie als reflexiv-parallel verlaufender Prozess der Datengewinnung, Datenauswertung und Dateninterpretation, dass theoretische Missionsansätze nicht als Hypothesen herangezogen werden. Die Datenanalyse orientiert sich an der rekonstruktiven Sozialforschung. Der Teil C diskutiert anhand der vier Leitfragen den Überschuß des bisherigen, in Teil A diskutierten Sendungsbegriffs, der im Projekt noch nicht zum Tragen kommt, und zugleich seine Mängel, welche die Projektauswertung aufzeigt. Daraus resultiert: (1) Die Identifikation mit dem christlichen Glauben beinhaltet per se eine missionarische Dimension, jeder Christ handelt also unbewusst missionarisch. (2) Dieses missionarische Handeln geschieht sowohl gegenüber Christen wie gegenüber Nicht-Christen, jedoch ist die Kommunikationsweise verschieden. (3) Deswegen wird zwischen innerer und äußerer Mission unterschieden: Äußere Mission findet überall dort statt, wo Christen mit Nicht-Christen kommunizieren. Sie endet gegebenenfalls bei deren freier Entscheidung für das Christ-sein. Dort, wo die äußere Mission zu einer Identifizierung mit dem Inhalt der christlichen Botschaft führt, beginnt die innere Mission, welche nie endet. (4) Insofern ist jedwedes bewusste und unbewusste, verbale und non-verbale Kommunizieren eines überzeugten Christen als missionarische Tätigkeit zu bezeichnen. Entsprechend wird Entwicklungsarbeit, von Christen durchgeführt, auch zu einer missionarischen Tätigkeit, sofern Christen aus ihrem Christ-sein heraus leben und handeln.
Die Niere stellt im Organismus einen der Hauptangriffspunkte für Toxine dar. Dies liegt zum einen in der Tatsache begründet, dass zahlreiche Substanzen renal eliminiert werden. Eine weitere Funktion der Niere ist die Regulation des Flüssigkeitsund Elektrolythaushaltes durch Rückresorption von Wasser, Ionen, Aminosäuren und Glucose. Dies führt zu einer Aufkonzentrierung des Primärharns und folglich werden für die zu eliminierenden Toxine im Harn normalerweise höhere Konzentrationen erreicht, als beispielsweise im Blutplasma. Ein Portfolio von verschiedenen metabolisierenden Enzymen, die hauptsächlich in der Niere auftreten, sorgt weiterhin dafür, dass einige der gefilterten Substanzen erst in der Niere eine Bioaktivierung zum Toxin erfahren. Es ist somit von grosser Bedeutung, geeignete Testsysteme zu entwickeln, mit denen die Nephrotoxizität von Arzneistoffen, Chemikalien und anderen Substanzen untersucht werden kann. Die globale Analyse der Genexpression mit Hilfe von Mikroarrays bietet die Möglichkeit, die Veränderungen in der Expression von mehreren Tausend Genen gleichzeitig in der Niere oder in renalen Zellkulturen nach der Einwirkung eines potenziellen Nephrotoxins zu untersuchen. Eines der Ziele dieser Arbeit bestand darin, diese vielversprechende Methode für den Einsatz bei der Untersuchung von Nephrotoxizität zu evaluieren. In diesem Zusammenhang sollte geklärt werden, inwiefern sich aus der Literatur bekannte Tatsachen über den Toxizitätsmechanismus bestimmter Nephrotoxine bestätigen lassen und ob Hinweise auf bisher unbekannte Aspekte bezüglich der Vermittlung der Nephrotoxizität der Nephrotoxine gewonnen werden können. Ein weiterer Bestandteil dieser Arbeit war es, ein Zellkulturmodell zu etablieren und zu charakterisieren, das es ermöglicht, Genexpressionsanalysen zur Untersuchung der Nephrotoxizität in vitro durchzuführen und das ausserdem mit in vivo vergleichbare Daten liefert. In verschiedenen Experimenten konnte nachgewiesen werden, dass eine Kultur primärer Zellen etabliert werden konnte, die die funktionellen Eigenschaften von proximalen Tubuluszellen zeigt und keine Verunreinigung mit anderen Zelltypen des Nierencortex aufweist. Weiterhin wurden die optimalen Bedingungen für die Durchführung von Expressionsanalysen mit dieser Zellkultur definiert. Im weiteren Verlauf der Arbeit wurden das Expressionsprofil von Ochratoxin A mit Hilfe von cDNA-Mikroarrays, sowie die Profile von Quecksilber-II-chlorid, Paraquat und Puromycin mit Hilfe von Oligonukleotid-Mikroarrays in vivo und in vitro untersucht und bewertet. Ein Vergleich der beiden verfügbaren Plattformen (cDNA-Mikroarrays und Oligonukleotid-Mikroarrays) mit der Echt-Zeit-PCR als unabhängiger Methode lieferte aufschlussreiche Erkenntnisse über ihre Vor- und Nachteile. Die Analyse der Genexpressionsveränderungen nach der Einwirkung von OTA, HgCl2, Paraquat und Puromycin zeigte, dass sich mit Hilfe des Genexpressionsprofils zahlreiche Erkenntnisse über den Toxizitätsmechanismus der Substanzen gewinnen lassen, die sowohl durch die histopathologischen Befunde als auch mit Hilfe der einschlägigen Literatur bestätigt werden konnten. Zum Teil konnten sogar bisher unbekannte Aspekte der nephrotoxischen Wirkungen der untersuchten Modell- Toxine aufgedeckt werden, wie zum Beispiel die verstärkte Induktion von Golgi- Transport-assoziierten Genen im Nierencortex der Ratte nach Behandlung mit Paraquat. Die Analyse des Genexpressionsprofils kann somit vielversprechende Hinweise für das umfassende Verständnis des Toxizitätsmechanismus von Nephrotoxinen liefern. Der Vergleich der Expressionsmuster von HgCl2, Paraquat und Puromycin machte weiterhin deutlich, dass es einerseits transkriptionelle Änderungen gibt, die für das jeweilige Toxin spezifisch waren, andererseits aber auch Expressionsmuster aufgezeigt werden konnten, die allen untersuchten Nephrotoxinen gemeinsam waren. Durch die Identifizierung solcher gemeinsamen Genexpressionsprofile aus einer Datenbank mit zahlreichen bekannten Nephrotoxinen, könnte es in Zukunft sogar möglich sein, die potenzielle Nephrotoxizität unbekannter Arzneistoffe oder Chemikalien mit Hilfe von Mikroarrays vorherzusagen oder beispielsweise aus mehreren Kandidaten für einen neuen Arzneistoff, denjenigen mit dem geringsten nephrotoxischen Potenzial bereits zu einem frühen Zeitpunkt der Entwicklung herauszufiltern.
Die Entwicklung von Wirkstoffträgern für Antisense-Oligdesoxyonukleotide auf der Basis von Protamin-Nanopartikeln stellt einen interessanten Ansatz für antivirale Strategien dar. So konnte gezeigt werden, dass bereits ab einem 1,5-fachen Massenüberschuss an Protamin eine spontane Komplexbildung mit Antisense-Wirkstoffen stattfindet, die einen Größenbereich von etwa 200 nm aufweisen und durch eine Oberflächenladung von ca. + 20 mV charakterisiert sind. Aufgrund dieser physikalischen Eigenschaften besitzen diese Nanopartikel nahezu ideale Eigenschaften, die intrazelluläre Verfügbarkeit von Antisense-Wirkstoffen entscheidend zu verbessern. Eine sehr gute zelluläre Aufnahme von Protamin/Antisense-Nanopartikeln konnte entsprechend in primären humanen Makrophagen als auch in lymphozytären T-Zellen gezeigt werden. Die Anwendung dieser Wirkstoffträger in den beschriebenen Zellen erwies sich dabei als sehr gut verträglich und zeigte keine toxischen Wirkungen in insgesamt drei unterschiedlichen Testverfahren zur Bestimmung der Zelltoxizität. Darüber hinaus konnte gezeigt werden, dass Protamin/Antisense-Nanopartikel mit unmodifizierten Antisense-Oligodesoxynukleotiden ein sehr günstiges intrazelluläres Auflösungsverhalten besitzen, was zu einer kontinuierlichen Freisetzung des inkorporierten Antisense- Wirkstoffs führte. Dabei wurde deutlich, dass nach spätestens 72 Stunden ein vollständiger Zerfall des Nanopartikels stattfand und der Wirkstoff sich gleichmäßig in intrazellulären Kompartimenten verteilte. Im Gegensatz dazu stellen Protamin/Antisense-Nanopartikel mit modifizierten Phosphorothioat-Wirkstoffen ein äußerst stabiles System dar, das zu keiner merklichen intrazellulären Wirkstofffreisetzung selbst nach 72 Stunden führte. Es konnte gezeigt werden, dass Protamin/AS-ODN-Nanopartikel die Expression eines von einem lentiviralen Vektor exprimierten Reportergens konzentrationsabhängig in primären humanen Makrophagen inhibieren konnte. Die antivirale Wirksamkeit dieser Wirkstoffträger konnte auch gegen das HIV-1-spezifische Transaktivatorprotein Tat in transient transfizierten Zielzellen der HIV-1-Infektion spezifisch demonstriert werden. Hier wurde eine selektive Inhibition der Tat-vermittelten Transaktivierung von 35 % bei einer Konzentration von 2 MikroM in Jurkat-Zellen nachgewiesen. Auch in primären Makrophagen, die mit einem HIV-1-Wildtypisolat infiziert wurden, führte die Anwendung von Protamin/AS-ODN-Nanopartikeln mit spezifischen Sequenzen gegen ein HIV-1-Gen zu einer deutliche Reduktion der Virusausbreitung in der Kultur. Bei einer wiederholten Behandlung von HIV-1-infizierten Makrophagen mit Protamin/AS-ODN-Nanopartikel in einer Konzentration von 2 MikroM zeigten nur einige wenige Zellen eine Infektion mit dem Virus, während sich in unbehandelten Zellen eine komplett durchinfizierte Kultur manifestiert hatte. Entsprechend der ungünstigen Bioverfügbarkeit von AS-PTO-Wirkstoffen nach intrazellulärem Transport in Form von Protamin-Nanopartikeln konnte für diese Formulierungen keine biologische Wirkung in Zellkultursystemen nachgewiesen werden. Die Inkorporation von destabilisierenden Zusätzen in die Nanopartikelmatrix bietet hier Möglichkeiten, die intrazelluläre Dekomplexierung dieser Wirkstoffträger günstig zu beeinflussen. Als Neuentwicklung konnte ein kolloidales Trägersystem für siRNA-Wirkstoffe auf der Basis von Protamin-Nanopartikeln entwickelt werden. Es konnte gezeigt werden, dass Protaminbase als auch Protaminsulfat siRNA-Wirkstoffe ab einem 2,5-fachen Massenüberschuss komplexieren. Protamin basierte Nanopartikel für siRNA-Wirkstoffe waren durch ein sehr günstiges Zellaufnahmeverhalten und fehlende zytotoxische Wirkung in primären humanen Makrophagen gekennzeichnet. Trotz dieser idealen Ausgangsbedingungen zeigten biologische Wirksamkeitstestungen sowohl gegen das endogene Protein Lamin A/C als auch virale Hemmversuche in HIV-1- infizierten primären Makrophagen nur marginale Effekte. Eine weitere Optimierung der Nanopartikelzusammensetzung und Untersuchungen zur intrazellulären Stabilität sind nötig, um die biologische Aktivität dieser Formulierungen entscheidend zu verbessern. Oberflächenmodifizierte Nanopartikel auf der Basis von Gelatine erwiesen sich in den durchgeführten Experimente als besonders vielversprechend. Hier konnte gezeigt werden, dass ein spezifisches Targeting von T-Zellen mit CD3-Gelatine-Nanopartikel realisiert werden kann, die auf ihrer Oberfläche kovalent einen anti-CD3-Antikörper tragen, der gegen die T-Zell spezifische Zeta-Kette des T-Zell-Rezeptor-Komplexes gerichtet ist. Untersuchungen mit konfokaler Mikroskopie und Durchflusszytometrie zeigten, dass dabei die Zellaufnahme dieser Wirkstoffträger von der Expression des durch den Antikörper erkannten Zielantigens auf der Oberfläche der Zielzellen ist. In Zellen mit besonders starker Expression des CD3-Epitops wurden Gelatine-Nanopartikel mit oberflächengebundenem anti-CD3-Antikörper zu einem sehr bedeutendem Ausmaß selektiv aufgenommen. In Kompetitionsexperimenten mit freiem anti-CD3-Antikörper konnte diese Aufnahme deutlich reduziert werden, was für die selektive Bindung und Internalisierung der CD3-Gelatine- Nanopartikel über den oberflächengebundenen Antikörper schließen läßt. Durch diese Untersuchungen konnte gezeigt werden, dass CD3-Gelatine-Nanopartikel das Potential besitzen, als selektives Wirkstoffträgersystem für T-Zellen eingesetzt zu werden.
Monoklonale Antikörper und rekombinante Antikörperfragmente gegen sekundäre Arzneipflanzenmetabolite
(2004)
Monoklonale Antikörper sind seit vielen Jahren aus den biochemischen und molekularbiologischen Laboratorien nicht mehr wegzudenken. Sowohl in der Grundlagenforschung, als auch in der angewandten medizinischen Diagnostik und der Therapie spielen sie eine immer wichtigere Rolle. Dennoch konnten sich monoklonale Antikörper als Hilfsmittel im Bereich der Naturstoffanalytik bisher noch nicht durchsetzen. Im Mittelpunkt dieser Arbeit stand daher die Frage, inwieweit sich monoklonale Antikörper und rekombinante Antikörperfragmente für die Analytik komplexer Naturstoffgemische eignen. Eine der Zielstrukturen, gegen die monoklonale Antikörper generiert werden sollten, ist das pentazyklische Triterpen Oleanolsäure. Oleanolsäure ist als Aglykon in zahlreichen verschiedenen Triterpensaponinen enthalten. Triterpensaponine bzw. Triterpensaponin-haltige Arzneipflanzen spielen aufgrund ihres breiten Wirkungsspektrums in der Phytotherapie eine wichtige Rolle. Sie zeichnen sich nachweislich durch venentonisierende, antiödematöse, antiphlogistische, diuretische, expektorierende und broncholytische Eigenschaften aus. Da es sich bei den Triterpensaponinen um eine sehr heterogene Stoffgruppe handelt, ist ihre Analytik sehr aufwendig. Monoklonale Antikörper könnten daher bei der Analytik von komplexen Saponingemischen sehr nützlich sein. In Zusammenarbeit mit Frau Dr. Kerstin Brand aus dem Arbeitskreis von PD Dr. Werner Knöss (Universität Bonn) konnten verschiedene monoklonale Antikörper gegen Oleanolsäure etabliert werden. Im Rahmen dieser Dissertation wurden die Bindungseigenschaften dieser Antikörper eingehend charakterisiert. In kompetitiven ELISAs konnten die Molekülepitope, an die die verschiedenen Antikörper binden, bestimmt werden. Außerdem wurden die Immunglobuline auf Kreuzreaktivitäten gegenüber 72 unterschiedlichen sekundären Arzneipflanzenmetaboliten untersucht. Die monoklonalen Antikörper zeigten dabei keine Interaktion mit Steroiden, Phytosterolen und Herzglykosiden – Substanzen die zwar in die Gruppe der Triterpene eingeordnet werden können, sich aber in ihrer Struktur und Stereochemie deutlich von der Oleanolsäure unterscheiden. Gegenüber zahlreichen pentazyklischen Triterpenen, die strukturelle Ähnlichkeiten mit der Oleanolsäure besitzen, zeigten hingegen alle untersuchten Immunglobuline eine ausgeprägte Kreuzreaktivität. Daher eignen sie sich für die Analytik von komplex zusammengesetzten Triterpengemischen, z.B. von Arzneipflanzenextrakten. Dies konnte durch verschiedene direkte und indirekte Kompetitionsversuche mit unterschiedlichen Arzneipflanzenextrakten im Rahmen dieser Arbeit und der Dissertation von Frau Dr. Kerstin Brand gezeigt werden. Mit Hilfe eines kompetitiven ELISAs ist z.B. ein Screening von unbekannten Arzneipflanzen auf Triterpensaponine möglich. Auch eine Wertbestimmung von Arzneipflanzen oder Arzneipflanzenextrakten mit Hilfe der monoklonalen Antikörper ist denkbar, sofern eine Referenz zur Verfügung steht, auf den die Kompetitionsergebnisse bezogen werden können. Der Einsatz der hier vorgestellten Antikörper wird allerdings dadurch eingeschränkt, dass die Immunglobuline eine unvorhersehbare Polyspezifität gegenüber den polyphenolischen Sekundärmetaboliten Quercetin und Ellagsäure zeigten. Bei einem Einsatz der Antikörper im Rahmen der Naturstoffanalytik sind daher Vorversuche erforderlich, um diese Substanzen zu identifizieren und wenn möglich zu entfernen. Einer der untersuchten monoklonalen Antikörper, der Antikörper der Zelllinie 10F10, zeigte eine Kreuzreaktivität gegenüber verschiedenen ß-Boswelliasäuren. Boswelliasäuren sind in der Lage, das Enzym 5-Lipoxygenase zu hemmen und dadurch die Synthese von entzündungsfördernden Leukotrienen zu inhibieren. Daher scheinen Boswelliasäuren viel versprechende Arzneistoffe bei der Therapie der unterschiedlichsten inflammatorischen Erkrankungen, wie z.B. Colitis ulcerosa, Morbus Crohn, Asthma bronchiale oder rheumatoider Arthritis zu sein. Der Antikörper der Zelllinie 10F10 soll im Arbeitskreis von Prof. Dieter Steinhilber am Institut für Pharmazeutische Chemie der Universität Frankfurt unter anderem für eine Immobilisierung der Boswelliasäuren an Immunaffinitätssäulen eingesetzt werden. In diesem Arbeitskreis wird der Einfluss von ß-Boswelliasäuren auf die 5-Lipoxygenase intensiv erforscht. In einem zweiten Projekt wurden rekombinante scFv-Antikörperfragmente gegen das Triterpen Oleanolsäure und gegen das Pyrrolizidinalkaloid Retrorsin generiert. Pyrrolizidinalkaloide sind hepatotoxische Sekundärmetabolite, die in zahlreichen Nutzpflanzen und traditionellen Arzneipflanzen enthalten sind. Insgesamt wurden vier verschiedene scFv-Fragmente konstruiert. Zwei Anti- Oleanolsäure-Antikörperfragmente konnten in E. coli erfolgreich periplasmatisch exprimiert und ihre Funktionalität in verschiedenen Antigenbindungsstudien nachgewiesen werden. Darüber hinaus wurde eine Phagen-Display- und Phagen- Panning-Methode etabliert, mit deren Hilfe es möglich ist, gezielt nach funktionellen Antikörperfragmenten zu suchen. Mit dieser Methode sollte es möglich sein, nach erfolgter Mutation der verschiedenen scFv-Fragmente, Proteine mit neuen Bindungseigenschaften zu identifizieren. Interessant wären dabei z.B. scFv- Fragmente, die mit Pyrrolizidin-N-oxiden interagieren. Gegen diese Substanzen konnten im Arbeitskreis Dingermann mit Hilfe der konventionellen Hybridoma- Technologie bisher noch keine monoklonalen Antikörper generiert werden. Im Rahmen dieser Arbeit konnte gezeigt werden, dass es sich bei monoklonalen Antikörpern und rekombinanten Antikörperfragmenten um interessante Hilfsstoffe für die Naturstoffanalytik handelt, deren Bedeutung für dieses Anwendungsgebiet aber bisher noch deutlich unterbewertet ist. Es wäre daher sehr interessant, die hier vorgestellten Projekte fortzuführen und die Arbeitsmethoden weiter zu optimieren. Mit den im Rahmen dieser Arbeit charakterisierten Anti-Oleanolsäure-Antikörpern stehen bereits drei Immunglobuline für die Arzneipflanzenanalytik zur Verfügung. Von allen drei Antikörpern liegen inzwischen auch scFv-Fragmente vor. Diese Fragmente könnten modifiziert und mit Hilfe der hier vorgestellten Phagen-Display-Methode nach Proteinen mit modifizierten Bindungseigenschaften gesucht werden. Letztendlich wäre auf diese Weise die Generierung eines großen Sortiments von Antikörpern und Antikörperfragmenten für die Analytik der unterschiedlichsten Substanzklassen möglich.
In der vorliegenden Arbeit wurde nachgewiesen, dass bei Krebspatienten Tumorspezifische Gedächtnis T-Zellen im Verlauf einer Tumorerkrankung generiert und erhalten werden. Dies konnte sowohl für einen soliden Tumor, das Mammakarzinom, als auch für eine hämatologische Neoplasie, das Multiple Myelom, verifiziert werden. Dabei konnte zum ersten Mal belegt werden, dass im Verlauf einer MM-Erkrankung MUC-1 als autologes Tumor-assoziiertes Antigen immunologisch erkannt wird und zur Generierung von Gedächtnis T-Zellen mit einer Anreicherung im Knochenmark der Patienten führt. Weiterhin konnte eine Anreicherung TAA-spezifischer Gedächtnis T-Zellen innerhalb der EM Zellpopulation bei Mammakarzinom-Patientinnen demonstriert werden. Die Analyse der Funktionalität und Langlebigkeit von EM und CM T-Zellen im Hinblick auf ihre klinische Relevanz zeigte wesentliche Unterschiede zwischen beiden Gedächtniszell- Populationen. So war eine IFN-gamma Induktion und Proliferation in CM T-Zellen in stärkerem Ausmaß von einer zusätzlichen Costimulation abhängig verglichen zu EM T-Zellen. Außerdem fiel eine Apoptose-Induktion in CM stärker aus als in EM T-Zellen. Unterschiede in Funktion und Viabilität von CM und EM T-Zellen korrelierten dabei mit der Expression des Chemokinrezeptors CCR7. ELISpot-Analysen der Polarisierung induzierter TH-Antworten beim Mammakarzinom ergaben eine große Heterogenität zwischen den Patienten. So exhibierte ein Teil der Patienten dominante TH1-Antworten, während bei einem anderen Teil lediglich TH2- oder toleranzinduzierende IL-10-Antworten induziert werden konnten. Darüber hinaus traten auch gemischt-polarisierte TH-Antworten auf. Eine Analyse ausgewählter Zytokine resultierte in der Detektion immunsuppressiver und immunstimulatorischer Zytokine im Tumorgewebe, wobei die Zytokinprofile interindividuell stark schwankten und kein einheitliches Muster erkennen ließen. Interessanterweise bestand jedoch eine inverse Korrelation zwischen der Induktion einer TH1-Antwort im ELISpot und dem erhöhten Vorkommen immunsuppressiver Zytokine im autologen Tumorgewebe von Mammakarzinom-Patienten. Eine derartige Korrelation impliziert, dass das vorherrschende Milieu der Tumorumgebung bei einer tumorspezifischen Aktivierung einen Einfluss auf infiltrierende Dendritische Zellen und ihre nachfolgende Polarisierung von T-Zellantworten hat. Folglich könnte die Untersuchung eines breiten Spektrums an Zytokinen in der Tumor-Mikroumgebung zu relevanten Zeitpunkten einer Tumorentwicklung, einen wichtigen Beitrag zum Verständnis von Tumor-Immun Interaktionen liefern.
Die Gruppe der T-Lymphozyten beinhaltet je nach Ausprägung des T-Zell-Rezeptors zwei Zell-Populationen, die der Alpha-beta- beziehungsweise der Gamma-delta-T-Zellen. Diese Arbeit beschäftigt sich mit den Gamma-delta-T-Zellen, da sie eine außerordentlich interessante und wenig erforschte Zellgruppe darstellen. Die Beobachtung einer bevorzugten Anreicherung von Gamma-delta-T-Zellen auf mukosalen Oberflächen, die mit einer Vielzahl von Antigenen konfrontiert sind, hat zur Hypothese geführt, dass Gamma-delta-T-Zellen eine "erste Garde der Immunabwehr" bilden. Des weiteren geben zahlreiche Studienergebnisse Hinweise darauf, dass Gamma-delta-T-Zellen an der Pathogenese vieler Krankheiten, wie z. B. den chronisch entzündlichen Darmerkrankungen, beteiligt sind. Als Mitglied des Immunsystems scheinen Gamma-delta-T-Zellen nicht nur Funktionen sowohl der angeborenen als auch der erworbenen Immunabwehr wahrzunehmen, sondern auch eine Vermittlerrolle zwischen beidem zu spielen. Mit der Intention, ein grosses Tiermodel zu etablieren, um anhand dessen die Beeinflussbarkeit der Gamma-delta-T-Zellen durch die Alterung und durch mikrobielle Faktoren besser analysieren zu können, wurde in vorhergehenden Studien die postnatale Entwicklung des Gamma-delta-T-Zell-Rezeptor(TCR)-Repertoires des Schweins charakterisiert und der von Menschen als sehr ähnlich befunden. Somit war die Verwendung des Schweins als Tiermodell zur weiteren Erforschung der Gamma-delta-T-Zellen gerechtfertigt. In dieser Arbeit richteten wir unser Augenmerk zum einen auf die pränatale Entwicklung des TCR-delta-Repertoires des Schweins, zum anderen darauf, welchen Einfluß Mikroorganismen auf das postnatale TCR-delta-Repertoire des Schweins nehmen. Auf diese Weise sollte die Frage beantwortet werden, ob Fremd- oder Eigenantigene die Selektion und konsekutive Expansion bestimmter Gamma-delta-T-Zellklone in der Postnatalperiode bedingen. Hinsichtlich dieser Fragestellungen führten wir Experimente mit unterschiedlichen Gewebeproben des Schweins durch. Für die Untersuchung der pränatalen Entwicklung des TCR-delta-Repertoires verwendeten wir Gewebeproben von Schweinefeten unterschiedlichen Alters (38.Tag bis 114. Tag der Tragzeit), die aus den verschiedenen Organen stammten: Dünn- und Dickdarm, Leber, Milz und Thymus. Zusätzlich wurden Zellen des Knochenmarks und des peripheren Blutes untersucht. Für die Untersuchungen zum Einfluß durch Mikroorganismen auf das postnatale TCR-delta-Repertoire dienten uns Proben von 10 Wochen alten Schweinen, die unter keimfreien (GF) bzw. spezifisch-Pathogen-freien (SPF) Bedingungen aufgezogen wurden. Die Proben wurden aus Dünn- und Dickdarm, mesenterialen Lymphknoten, Milz und Thymus entnommen. Die Amplifikation der TCRDV1-DV5 Transkripte erfolgte mittels RT-PCR, woran sich eine längenabhängige Auftrennung durch denaturierende Polyacrylamidgel-Elektrophorese (CDR3 Längenanalyse) anschloß. Einzelne dominante Banden wurden aus den Gelen ausgeschnitten, reamplifiziert, teilweise kloniert und anschließend sequenziert. Unsere Experimente zur pränatalen Entwicklung ergaben, daß das TCR-delta-Repertoire während der frühen Fetalzeit eingeschränkt war und bei Geburt Polyklonalität aufwies. Die durchschnittliche CDR3 Länge der Transkripte nahm während der Ontogenese zu, was auf eine zunehmende Aktivität des Enzyms TdT schließen läßt. Die zentrale Entdeckung dieser Versuche stellt das invariable DV3 Transkript dar, das in allen Feten während der frühen Gestation (38. Tag der Tragzeit) bis hin zur Geburt (114. Tag der Tragzeit) vorhanden war. Während der Mitte der Gestation, etwa um den 55. Tag der Tragzeit, dominierte dieses invariable DV3 Transkript alle analysierten Organe. Gegen Ende der Gestation, also etwa vom 90. Tag bis zum 114. Tag der Tragzeit, verlor dieses Trankript an Dominanz. Gleichzeitig wurde es aber noch häufig in peripheren Organen wie dem Darm und der Milz gefunden. Im Thymus hingegen konnte es zu dieser Zeit nicht mehr nachgewiesen werden. Diese Beobachtung läßt vermuten, daß die invariable DV3 Kette gegen Ende der Gestation im Thymus nicht mehr länger entsteht, wohingegen Gamma-delta-T-Zellen, die diese invariable Kette tragen, in der Peripherie "überleben". Die Tatsache, daß kein anderes invariables TCR-delta-Transkript, welches in verschiedenen Feten präsent gewesen wäre, identifiziert werden konnte, führt zur Annahme, daß den Gamma-delta-T-Zellen, die diesen Rezeptor expremieren, eine einzigartige Rolle zukommen könnte. Zusammenfassend läßt sich sagen, daß die pränatale Entwicklung des TCR-delta-Repertoires des Schweins dem des Menschen ähnlich ist. Es ist jedoch anzumerken, daß beim Menschen kein TCR-delta-Transkript existiert, das das fetale Repertoire in gleicher Weise dominiert. Es bedarf weiterer Untersuchungen in der Zukunft, um die Frage zu klären, ob es sich bei dem invariablen DV3 Transkript des Schweins um das Ergebnis eines vorprogrammierten Rearrangements und/oder einer Selektion durch Eigenantige handelt, ferner, welche wichtige Funktion es während der fetalen Entwicklung erfüllt. Unsere Untersuchungen zum Einfluß durch Mikroorganismen auf das postnatale TCR-delta-Repertoire ergaben keine signifikante Differenz zwischen dem postnatalen TCR-delta-Repertoire von 10 Wochen alten keimfreien (GF) bzw. spezifisch-Pathogen-freien (SPF) Schweinen und dem bereits in Vorarbeiten beschriebenen Repertoire von gleichaltrigen konventionellen Schweinen. Diese Beobachtung veranlasst zur Annahme, daß eine Selektion bestimmter Gamma-delta-T-Zellen eher durch Eigenantige als durch Fremdantigene (z. B. Mikroorganismen) hervorgerufen werden könnte.
Das humane Genom besteht zu etwa 8% aus retroviralen Sequenzen. Davon sind ca. 1-2% dem humanen endogenen Retrovirus K (HERV-K) zuzuordnen. Das Virus ist mit ca. 30-50 Proviren und ca. 10.000 sLTRs im humanen Genom vertreten. HERV-K besitzt intakte ORFs für alle retroviralen Proteine und zusätzlich ein ORF für das akzessorische Protein Rec. Obwohl eine basale Transkription in verschiedenen Geweben nachgewiesen werden konnte, ist eine Expression von HERV-K Proteinen und Viruspartikeln nur in Keimzelltumoren nachgewiesen worden. In dieser Arbeit wurde die transkriptionelle Regulation des gewebespezifischen Promotors von HERV-K näher charakterisiert. Hierbei wurden regulatorisch wichtige Sequenzen mit Hilfe des Luziferase-Assays eingegrenzt. Transkriptionell sensitive Regionen wurden daraufhin im EMSA auf die Bindung von Transkriptionsfaktoren untersucht. Durch transiente Transfektionen von Luziferasereporterkonstrukten in verschiedenen Zelllinien stellte sich heraus, dass HERV-K LTRs in Keimzelltumorzellen aktiv sind, dass es aber auch inaktive LTRs gibt, die im Zuge der Evolution durch Punktmutationen ihre transkriptionelle Aktivität verloren haben. Aktive und inaktive LTRs unterscheiden sich durch Punktmutationen, die sich in verschiedenen Sequenzabschnitten häufen. Chimäre Konstrukte aus aktiven und inaktiven Sequenzabschnitten und gezielte Mutationen und Deletionen in aktiven HERV-K LTRs enthüllten verschiedene DNA-Bereiche, die transkriptionelle Sensitivität aufweisen. Die LTR-Bereiche bps 572-578, bps 757-798 und bps 809-823 waren im Aktivitäts-Assay besonders empfindlich gegenüber Mutation. In diesen Bereichen liegen zum einen GC/GT-Boxen, also Konsensussequenzen für die Transkriptionsfaktoren Sp1 und Sp3, zum anderen Konsensussequenzen für ein Inr und ein DPE. Das Binden von Sp1 und Sp3 auf den GC/GT-Boxen der bps 757-798 konnte durch eine EMSA-Analyse bewiesen werden. Der transkriptionell sensitive Bereich der bps 572-578 weist eine weitere putative GC/GT-Box auf. Die TATA-Box bei bp 532 zeigte sich unempfindlich gegenüber Mutation. Eine Beteiligung dieser Konsensussequenz am basalen Promotor wurde deshalb ausgeschlossen. Unterstützt durch die Ergebnisse einer 5’-RACE, ein Verfahren, dass den Transkriptionsstart eines bestimmten Gens bestimmen kann, konnte gezeigt werden, dass der basale HERV-K Promotor aus Konsensusequenzen für die Transkriptionsfaktoren Sp1 und Sp3 , einem Inr und einem DPE besteht. Sp1 und Sp3 sind ubiquitäre Transkriptionsfaktoren, die durch ihr Mengenverhältnis in einem bestimmten Gewebe oder durch posttranslationale Modifikationen unterschiedliche Auswirkungen auf die Transkription haben können. Diese Eigenschaften könnten zur Gewebespezifität von HERV-K beitragen. Die Core Promotor Komponenten Inr und DPE sind für die korrekte Positionierung von TFIID und damit der PolII verantwortlich. Des weiteren wurde eine starke Beteiligung des Testis-spezifischen Transkriptionsfaktors SRY an der Transkription von HERV-K belegt. Im Luziferase-Assay konnte ein SRY-Expressionsplasmid die Transkription eines aktiven LTRs in GH- wie auch in HeLa-Zellen steigern. Ein Indiz dafür, dass es sich um einen für die Transkription von HERV-K essentiellen Faktor handelt. Verschiedene SRY-Konsensussequenzen auf der HERV-K LTR machen eine Wirkung in cis wahrscheinlich, doch könnte auch in trans ein für die Transkription wichtiger Transkriptionsfaktor in seiner Expression verstärkt werden. Ebenfalls konnte bewiesen werden, dass epigenetische Mechanismen eine starke Rolle bei der Transkription von HERV-K spielen. Die Methylierung eines LTR-haltigen Luziferase-Reportervektors führte zum fast vollständigen Verlust der transkriptionellen Aktivität. Es bleibt abzuwarten, in welcher Weise die Schlüsselkomponenten Sp1, Sp3, SRY und Hypermethylierung des HERV-K Genoms zur Gewebespezifität von HERV-K beitragen.
Die vorliegende Arbeit beschäftigt sich mit der Modellierung der neuronalen Prozesse, die auditorischen Lokalisationsleistungen zugrunde liegen. Viele der hierzu aktuell diskutierten Modellvorstellungen lassen sich auf ein von L. Jeffress bereits in der Mitte des letzten Jahrhunderts vorgeschlagenes Netzwerkmodell zurückführen: Nach Jeffress werden interaurale Laufzeitunterschiede (ITDs) zwischen beiden auditorischen Pfaden in einem Netzwerk von Detektorneuronen (Koinzidenzdetektoren) ausgewertet. Systematische Laufzeitunterschiede resultieren aus der Architektur des Netzwerks, die sogenannte Delay-Lines realisieren soll. Trotz einer Reihe von Evidenzen für das im auditorischen Diskurs inzwischen als Paradigma geltende Modell, findet Kritik am Jeffress-Modell in jüngerer Zeit zunehmend Beachtung und Interesse. So argumentieren B. Grothe und D. McAlpine gegen die Übertragung des Delay-Line Modells auf die Verhältnisse bei Säugern. Zentrales Moment ihrer Kritik ist eine Afferenz der MSO aus einem weiteren Teilgebiet der Olive (MNTB). Wesentlicher Effekt der von der Projektion gebildeten inhibitorischen Synapse ist eine relative Verschiebung der Best-Delays der MSO-Zellen zur Präferenz contralateraler Delays. Damit besteht nicht nur zu der nach dem Jeffress-Modell notwendigen Aufteilung der Best-Delays ein Widerspruch, die ITDs liegen bei tiefen Frequenzen für kleine Säuger aufgrund deren geringer Kopfgröße außerhalb des Bereichs physiologisch auftretender Delays. In dieser Arbeit werden die Ergebnisse von Grothe und McAlpine durch Compartmental Modeling analysiert. Gegenüber einer Simulationsstudie aus den Gruppen von Grothe und McAlpine werden von uns durch explizite Modellierung der Dendriten zusätzliche Effekte der Inhibiton beschrieben. Wir stellen dar, wie die Topographie von Inhibiton und Excitation die Verarbeitungsprozesse in Bipolar-Zellen durch dendritische Low-Pass Filterung und Kontrastverst ärkung zwischen minimaler und maximaler Spikerate unterstützt. Unsere Ergebnisse können die empirisch nachgewiesene Verteilung excitatorischer (distaler) und inhibitorische (proximaler) Synapsen erklären. In der abschliessenden Analyse der von den Bipolar-Zellen generierten Spike Trains wird das von Grothe und McAlpine entworfene alternative ITD-Codierungsmodell auf der Basis von Ratencodes problematisiert: Bislang erklärt ihr Vorschlag nicht, wie organismische Lokalisationsleistungen auf der Basis weniger Spikes realisiert werden können.
Thema dieser Arbeit ist die vergleichende Darstellung der Lokalsysteme des Bibliotheksverbundes von Hessen und Rheinhessen, HeBIS. Nach einem knappen Überblick über Arten von Verbundsystemen und einem Kapitel zu Geschichte und Struktur des HeBIS-Verbundes sowie zur Zusammenarbeit der Lokalsysteme werden die sechs Lokalsysteme im Detail einzeln vorgestellt. Die abschließende Abwägung der Gemeinsamkeiten und Unterschiede kommt zu dem Ergebnis, dass die Lokalsysteme in vielerlei Hinsicht heterogen sind und sich insbesondere Struktur, Ausstattung und Aufgaben deutlich unterscheiden.
Ziel dieser Arbeit war die Entwicklung eines Mess-Systems zur energie- und winkelaufgelösten Spektroskopie von koinzidenten Elektronenpaaren, die in Reaktionen an einer Oberfläche emittiert wurden. Das Hauptinteresse galt hierbei dem Zwei-Elektronen-Photoemissionsprozess an Oberflächen. Das Prinzip des Spektrometers stellt eine Erweiterung der existierenden COLTRIMS-Spektrometer (COld Target Recoil Ion Momentum Spectroscopy) für Gasphasen-Experimente auf den Themenkreis der Oberflächenphysik dar. Anders als bei den in der Photoelektronen-Spektroskopie häufig eingesetzten elektrostatischen Analysatoren, wird hier eine Flugzeittechnik verwendet. Die Elektronen, die in der Reaktion erzeugt wurden, werden h ierzu mit einem schwachen homogenen elektrostatischen Feld vom Target abgesaugt und in Richtung eines orts- und zeitauflösenden Detektors beschleunigt. Zusätzlich wird ein homogenes Magnetfeld überlagert, das einen Einschluss der Elektronen bis zu einem maximalen Transversal-Impuls gewährleistet. Durch Messung der Flugzeiten und Auftrefforte auf dem Detektor können - unter Kenntnis d er elektrischen und magnetischen Feldstärken - die Startimpulse der Elektronen rekonstruiert werden. Auf diese Weise konnten Elektronen von 0 eV bis zu 50 eV mit einem Raumwinkel von nahezu 2p gleichzeitig abgebildet werden. Durch diesen sehr großen Aktzeptanzbereich, konnte eine wesentliche Erhöhung der Koinzidenzeffizienz der Anordnung gegenüber anderen Systemen erreicht werden (> 10 hoch 2 - 10 hoch 6 je nach Mess-System). Wesentlich hierfür ist des weiteren die Fähigkeit des Detektors mehrere Treffer mit verschwindender Totzeit zu verarbeiten. Mit dem beschriebenen System wurde die Zwei-Elektronen-Photoemission an Oberflächen untersucht. Die Experimente hierzu wurden im wesentlichen am Hamburger Synchrotron Strahlungslabor (HASYLAB) durchgeführt. Als Target wurde die (111)-Oberfläche eines einkristallines Kupfer-Targets verwendet. Mehrere Messreihen mit Photonenenergien im Bereich h? = 40 eV bis h? = 100 eV wurden aufgezeichnet. Durch die vollständige Vermessung des gesamten Impulsraumes der beiden Elektronen, stellt dies die erste kinematisch vollständige Untersuchung (bis auf die Spin-Freiheitsgrade) der Zwei-Elektronen-Photoemission an Oberflächen dar. Im Anschluss an vorangegangene Experimente [HER98], konnte auch hier in den Zwei-Elektronen-Energieverteilungen (innerhalb der experimentellen Auflösung) als Maximal-Energie des Paares der Wert E1 + E2 = h? - 2W0 festgestellt werden, der auf eine Selbst-Faltung der Bänder für die Zwei-Elektronen-Photoemission hindeutet. Die Form der Spektren wird wesentlich durch das Transmissionsverhalten der Elektronen beim Durchgang durch die Oberfläche bestimmt. Die auftretende energieabhängige Brechung der Trajektorie führt dabei zu einer starken Unterdrückung niederenergetischer Elektronen. In der Betrachtung der Kinematik der Emission konnten deutliche Analogien des Effektes zum analogen Prozess der Doppel-Photoionisation an freien Atomen bzw. Molekülen gefunden werden. Die Bewegung des Schwerpunktsimpulses des Paares ist daher durch die Richtung des Polarisationsvektor des Lichtes bestimmt. Im Gegensatz zur Emission am freien System, tritt hier allerdings - je nach Orientierung des Polarisationsvektors - ein Symmetriebruch auf, da Elektronen entweder auf die Oberfläche zu oder von ihr weg emittiert werden. Ein Bruchteil der in den Festkörper emittierten Intensität kann schließlich wieder am Gitter reflektiert werden und die Oberflächenbarriere noch überwinden. Die Energie- und Winkelverteilungen der Elektronen zeigen, dass, je nach Energieaufteilung des Paares, zwischen den Beiträgen durch einen "shake-off"-Mechanismus und einem "knock-out"-Mechanismus unterschieden werden kann. Auch hierin zeigt sich eine Ähnlichkeit des Zwei-Elektronen-Photoemissionsprozesses an Oberflächen mit der Doppel-Ionisation von Helium-Atomen. Während bei der Doppel-Ionisation von Helium diese Unterscheidung allerdings erst bei höheren Photonenenergien (> 100 eV) möglich ist, kann hier schon bei ca. 60 eV zwischen beiden Prozessen getrennt werden. Der Grund hierfür liegt sehr wahrscheinlich in der Abschirmung der Elektronen im Festkörper begründet, die die direkte Coulomb-Wechselwirkung der Elektronen im Endzustand reduziert. Insbesondere der starke Beitrag des "shake-off"-artigen Prozesses ist ein deutlicher Hinweis darauf, dass die gegenwärtigen theoretischen Modelle zur Beschreibung der Zwei-Elektronen-Photoemission nicht ausreichend sein können, da nur die Wechselwirkung im End-Zustand berücksichtigt wird. Vielmehr ist die Einbeziehung von Grundzustandswellenfunktionen jenseits des Bildes unabhängiger Teilchen nötig.
In dieser Arbeit soll eine Religionstheorie entwickelt werden, die für den interdisziplinären Dialog über Religion und auch für die empirische Forschung neue Impulse gibt. Die Begriffe "Religion" und "Religiosität", die dabei eine zentrale Rolle spielen, sind nicht leicht handhabbar, für eine Religionspsychologie jedoch unverzichtbar. In der vorliegenden Arbeit wird der Begriff "Religion" verwendet, soweit es um bestimmte, institutionalisierte Aspekte geht, während "Religiosität" für die Erlebens- und Handlungsaspekte des einzelnen Menschen verwendet wird. Es ist jedoch nicht immer möglich, zwischen den beiden Begriffen streng zu unterscheiden. Darüber hinaus ist es wichtig, zwischen Ideologie und Religion zu unterscheiden. Gerade Fromms weit gefasste Religionsdefinition, die diese Differenzierung bewusst ablehnt, hat zu vielen Problemen und Kontroversen geführt. Eine Differenzierung ist jedoch schwierig, vor allem deswegen, weil der Begriff "Ideologie" vieldeutig verwendet wird. Dennoch lässt sich festhalten, dass Ideologien moderne Gebilde sind, die eine bereits existierende bürgerliche Gesellschaft voraussetzen. Diese modernen Denksysteme werden auf der Grundlage des abendländischen Geschichtsbewusstseins entwickelt und beziehen sich auf noch zu verwirklichende Utopien. Insofern sind Ideologien als Programme für eine bessere Welt zu verstehen. Religionen dagegen müssen weder eine geschichtliche Entwicklung postulieren noch eine Utopie anstreben. Obwohl Religionen bisweilen ideologische Züge aufweisen, ist es vor diesem Hintergrund doch möglich, zwischen Ideologie und Religion zu differenzieren. Eine neue Religionstheorie soll bestehende funktionale, substanzielle und anlageorientierte Ansätze in einen neuen theoretischen Rahmen integrieren und somit neue Impulse für die Forschung in den Bereichen Religion und Gesundheit, religiöse Entwicklung und religiöse Erfahrung geben. Gegenstand der vorliegenden Untersuchung ist ein vorempirischer Fragenkomplex bezüglich der anthropologischen und wissenschaftstheoretischen Vorannahmen einer Religionspsychologie. Dabei besteht die Aufgabe in der Erarbeitung einer Religionstheorie, die diese Vorannahmen logisch begründet und empirisch überprüfbar formuliert. Hier wird weder eine richtungsspezifische (z.B. psychoanalytische oder behavioristische) noch eine teilgebietsorientierte Vorgehensweise gewählt, sondern es wird im Hinblick auf den interdisziplinären Anspruch der Arbeit versucht, mit Rückgriff auf die dialogische Anthropologie Martin Bubers einen für die Psychologie neuen relationalen Zugang zum Forschungsgegenstand zu finden und logisch zu überprüfen. Die in dieser Arbeit entwickelte relationale Grundlage für eine Religionspsychologie soll auch einen einheitlichen Bezugsrahmen für die bisherige fragmentarische religionspsychologische Forschung liefern.
Auswertungen der Ausgrabungen von Oursi, Oursi Village und Saouga führten zu einer zeitlichen Gliederung der keramischen Fundinventare. Anhand von Entwicklungen in Keramikform, -herstellung und -verzierung wurden drei Phasen unterschieden. Die frühe Eisenzeit, die zeitlich in einen Bereich von Christi Geburt bis zur Mitte des ersten nachchristlichen Jahrtausends einzuordnen ist, zeichnet sich durch die Verzierung der Randpartie mit Riefen, Ritzverzierungen auf dem Gefäßkörper in Kombination mit anderen Verzierungselementen und durch Einführung der Topfform aus. Diese Elemente unterscheiden sie von der Keramik der Endsteinzeit. Der polierte Kammstich ist das neue Verzierungselement der mittleren Eisenzeit. Um 1000 AD beginnt die späte Eisenzeit. Sie wird bis in das 14. Jahrhundert auf den Siedlungshügeln des Oudalan nachgewiesen. Mit der Einführung des Verzierungselementes "Bastroulette" sowie der Gefäßformen Flasche mit Deckel, Siebgefäße und Dreibeingefäße wird das bisherige Keramikspektrum erweitert. Bei Begehungen im Oudalan, der nördlichsten Provinz des Landes, wurden Siedlungshügel entdeckt, die an der Oberfläche die jeweils typischen Keramikelemente der eisenzeitlichen Epochen aufweisen. Die letzte Besiedlungsphase dieser Siedlungshügel läßt sich demnach ebenfalls chronologisch einordnen. Das Besiedlungsmuster während der Eisenzeit zeigt eine Bevorzugung von fruchtbaren Böden, die auf den Dünenzügen und am Fuß der Inselberge verfügbar waren, sowie die Nähe von Wasser für die Wahl des Siedlungsplatzes. Dort siedelten Menschen über lange Zeit am selben Ort. Das führte zur Akkumulation von Siedlungsabfällen und damit zur Bildung von Siedlungshügeln. Die Wirtschaftsweise während der Eisenzeit bestand aus Herstellung und Verarbeitung von Eisen. In der Eisenzeit wurde Hirse angebaut sowie Vieh gehalten (Schaf, Ziege und Rind). Darüber hinaus erweiterte das Sammeln von wilden Früchten und Samen und der Fischfang das Nahrungsangebot zur damaligen Zeit. Die Besiedlungskontinuität über 14 Jahrhunderte während der Eisenzeit des Oudalan findet im überregionalen Kontext Entsprechungen. Bei Vergleichen der Siedlungsform und der Keramikverzierung des nördlichen Burkina Faso mit anderen Regionen werden die Beziehungen zwischen den Gruppen der Savannenbevölkerung von Westafrika, aber besonders zum Bereich des Nigerbogens im südlichen Mali deutlich. Die vielfältigen Parallelen innerhalb des Fundgutes des Oudalan und des südlichen Mali vermitteln während der Eisenzeit den Eindruck einer Epoche der Stabilität, in der sich über lange Zeiträume Siedlungen entwickelten und expandierten. Auch der Austausch von Gütern mit den ländlicheren Gegenden, wie dem Oudalan, war zu dieser Zeit genauso intensiv wie mit denjenigen der Handelsrouten. Die Eisenzeit in den Savannen Westafrikas weist durch die Siedlungshügel und durch die Verwendung der unterschiedlichsten Rouletteformen als Keramikverzierung, die gleichsam als Leitform betrachtet werden können, eine einheitliche Erscheinungsform auf, die wahrscheinlich erst durch politische Umwälzungen in weiten Teilen Westafrikas um das 14. Jahrhundert zu einem Ende kam.
Gegenstand der vorliegenden Studie war die Frage, in wie weit Bedingungen eines Langstreckenfluges eine Aktivierung des Gerinnungssystems beeinflussen. Dazu wurden 70 Probanden, davon je 25 Probanden mit einer bekannten APC-Resistenz ohne Thromboseanamnese, 20 Probanden mit APC-Resistenz und einer Thrombose in der Anamnese sowie eine gesunden Kontrollgruppe zu 25 Probanden, in einer nicht signifikant unterschiedlichen Altersverteilung von 18-25 Jahren, 25-40 Jahren, 40-60 Jahren und 60-70 Jahren, im Verlauf eines simulierten Langstreckenfluges von insgesamt 12 Stunden bei einer Unterdruckbedingung von bis zu 0,8 bar untersucht. Die Geschlechteraufteilung innerhalb der Gruppen war nahezu homogen und nicht signifikant unterschiedlich. Zur Flugsimulation wurde der Luftdruck innerhalb von 30 Minuten auf 0,87 bar gesenkt, entsprechend eines Kabinendruckes von etwa 1300 m, nach 7,5 Stunden auf 0,8 bar bzw. eines Kabinendruckes von 2000 m reduziert um nach Ablauf von 3,5 Stunden innerhalb von 30 Minuten wieder auf 1 bar erhöht zu werden. Diese Druckänderungen entsprechen einem Langstreckenflug bei dem nach ca. 7-8 Stunden die Flughöhe von 10 000 Meter auf ca. 12 000 Meter ansteigt. Ursache hierfür ist der Gewichtsverlust nach Verbrauch des Treibstoffes. Nach 48 Stunden fanden sich die Probanden zur Nachuntersuchung ein. Die Studie fand am Zentrum für Sauerstoffüberdrucktherapie-, Tauch- und Höhenmedizin an der Orthopädischen Universitätsklinik Frankfurt am Main Friedrichsheim statt. Neben BMI-Werten und allgemeinem Blutbild wurden folgende primäre Bewertungsparameter bestimmt: 1. PAI-Aktivität nach dem Prinzip der Inaktivierung vorgelegter Urokinase (Methode OWOA G15 C0532 (1094) H 2), 2. D-Dimeren-Konzentration nach dem Prinzip der Agglutinierung von Polystyrolteilchen über einen monoklonalen Antikörper (DD5) in Gegenwart von D-Dimeren gemäß der Labormethode OQWW G11 C0533 (675) W 2, 3. Prothrombinfragment F1-F2 über Kaninchen-Antikörper gegenüber Human-F1-F2 nach ELISA Enzygnost 1-2 (Boehringer Mannheim) 4. von-Willebrand-Faktor mittels vWF:Ag ELISA-Test (Rabbit Anti-Human von Willebrand Factor P0226 von Dako A/S, Glostrup, Dänemark sowie Peroxidase-Conjugated Rabbit Anti-Human von Willebrand Factor A 0082). Gemessen wurde nach 2, 6, 9, 12 und 48 Stunden. Die statistische Bewertung erfolgte mittel ANOVA, Chi-Quadrat-Test sowie Wilcoxon-Test. Ein Patient wurde nach 36 Stunden aufgrund des Verdachts einer TVT und anschließender Lungenembolie stationär behandelt. Dieser Patient gehörte zur Gruppe der APC Resistenz mit heterozygoter Ausprägung des Gendefekts, mit über einige Jahre rezidivierenden Thrombophlebitiden. Das Ergebnis zeigte insgesamt keine signifikante Aktivierung des Blutgerinnungssystems infolge des Langstreckenfluges, unabhängig von der betrachteten Risikogruppe. Die PAI-Aktivität sinkt bei allen Probanden, allerdings unsignifikant, im Verlauf der ersten 6 Stunden und steigt anschließend nur geringfügig wieder an. Die D-Dimeren-Konzentration bleibt im Mittel nahezu unverändert. Der Gehalt des Prothrombinfragments F1-F2 steigt im Verlauf von 48 Stunden nicht signifikant an. Der von-Willebrand-Faktor schwankt im zeitlichen Ablauf, die Änderungen haben ebenfalls keine Signifikanz. Höheres Alter kann nur tendenziell als Risikofaktor bestätigt werden, Geschlechtszugehörigkeit zeigte sich hier als nicht signifikant risikoerhöhend. Der Patient mit der postexpositionellen Thromboembolie zeigt ein etwas abweichendes Verhalten: in den ersten 9 Stunden stark sinkende, danach leicht ansteigende aber unter Ausgangsniveau bleibende PAI-Werte. Die D-Dimere-Werte steigen kontinuierlich stark an bis zu 48 Stunden. Die F1-F2-Konzentration steigt um fast 50% nach 2-Stunden, sinkt von da an kontinuierlich bis auf 48 Stunden. Die vw-Antigen-Faktoren steigen nach 48 Stunden an. Abgesehen von dem Embolie-Patienten konnten in dieser Studie keine signifikanten Korrelationen zwischen Langstreckenflügen und erhöhter Blutgerinnungsaktivität ermittelt werden.
Die NO/cGMP-Kaskade spielt bei der nozizeptiven Transmission im Hinterhorn des Rückenmarks eine wichtige Rolle. In der vorliegenden Arbeit wurden bekannte cGMP-Targets (PKG-1, CNG-Kanäle, PDE-2 und -3) sowie synaptische Vesikelproteine (Synapsin 2, Rabphilin) als potentielle Targets der NO/cGMP-Kaskade mit Hilfe von molekularbiologischen Methoden und nozizeptiven Verhaltensstudien hinsichtlich einer Beteiligung an der nozizeptiven Transmission im Rückenmark untersucht. Im Formalintest reduzierte der PKG-1-Inhibitor Rp-8-Br-cGMPS (0,1 - 0,5 µmol i.t.) die nozizeptive Antwort, während der PKG-1-Aktivator 8-Br-cGMP in hoher Dosis (2,5 µmol i.t.) einen gegenteiligen Effekt zeigte. Überraschenderweise wirkte 8-Br-cGMP in niedriger Dosis (0,1 - 0,25 µmol i.t.) antinozizeptiv, was durch die gleichzeitige Applikation des PKG-Inhibitors weiter verstärkt wurde. Im Gegensatz zu Rp-8-Br-cGMPS oder 8-Br-cGMP beeinflussten weder der CNG-Kanal-Inhibitor L-cis-Diltiazem (0,5 mg i.t.), noch die PDE-Inhibitoren EHNA (0,25 µmol i.t.) oder Milrinon (5 - 10 mg/kg i.p.) die nozizeptive Antwort im Formalintest. Mit Western Blot-Analysen konnte gezeigt werden, dass die Formalininjektion in eine Hinterpfote im Lumbalmark nach 48 - 96 h eine Steigerung der PKG-1-Proteinkonzentration zur Folge hat. Dies wurde durch Vorbehandlung der Versuchstiere mit Rp-8-Br-cGMPS (0,1 - 0,5 µmol i.t.) oder Morphin (2,5 - 5 mg/kg i.p.) verhindert, während 8-Br-cGMP (2,5 µmol i.t.) die Formalin-induzierte Steigerung der PKG-1-Konzentration im Lumbalmark verstärkte. Die Formalininjektion in eine Hinterpfote veränderte auch die Synapsin 2b-Konzentration im Lumbalmark: 10 min bis 8 h nach der Injektion wurde die Synapsin 2b-Proteinkonzentration gesenkt, nach 48 h war jedoch eine Zunahme zu beobachten. Diese späte Zunahme der Synapsin 2b-Proteinkonzentration wurde durch eine Steigerung der Genexpression hervorgerufen, denn mit quantitativer Realtime RT-PCR wurden erhöhte mRNA-Konzentrationen 24 - 48 h nach der Formalininjektion gemessen. Die rasche Formalin-induzierte Abnahme der Synapsin 2b-Proteinkonzentration ging jedoch weder mit Änderungen der mRNA-Konzentration, noch mit veränderten Solubilisierungseigenschaften bei der Proteinaufbereitung einher, und wurde durch Vorbehandlung der Versuchstiere mit Morphin (10 mg/kg i.p.), Diclofenac (10 mg/kg i.p.), Metamizol (1 g/kg i.p.) oder dem NOS-Inhibitor L-NAME (10 - 100 mg/kg i.p.) verhindert. Demgegenüber führte die Vorbehandlung mit dem NO-Donor NOC-5 (4 - 20 µg i.t.), 8-Br-cGMP (0,1 - 2,5 µmol i.t.), Rp-8-Br-cGMPS (0,1 - 0,25 µmol i.t.) oder der Kombination von 8-Br-cGMP und Rp-8-Br-cGMPS (0,1 + 0,1 und 0,5 + 0,5 µmol i.t.) zu einer Verstärkung der Formalin-induzierten raschen Senkung der Synapsin 2b-Konzentration. Die funktionelle Relevanz dieser Befunde wurde in mehreren nozizeptiven Tiermodellen überprüft. Durch eine kontinuierliche i.t. Infusion von Antisense-Oligonukleotiden wurde die Synapsin 2-Konzentration im Lumbalmark der Ratte gesenkt, was eine Reduktion der nozizeptiven Antwort im Formalintest zur Folge hatte. Bei Synapsin 2-Knockout-Mäusen war im Vergleich zu Wildtyp-Mäusen eine verminderte nozizeptive Antwort im Formalintest und eine Reduktion der mechanischen Hyperalgesie bei Zymosan-induzierter Pfotenentzündung zu beobachten. Im Hot-Plate-Test zeigten die Knockout-Mäuse im Vergleich zu Wildtyp-Mäusen kürzere Latenzzeiten. Im Gegensatz zu Synapsin 2b wurde die Rabphilin-Konzentration im Lumbalmark durch Formalininjektion in eine Hinterpfote nicht beeinflusst. Allerdings führte die Verabreichung von Metamizol (500 mg/kg i.p.) oder Diclofenac (5 mg/kg i.p.) nach 1 h zu einer Steigerung der Rabphilin-Proteinkonzentration, welche nicht von Änderungen der mRNA-Expression begleitet war. Eine Senkung der Rabphilin-Proteinkonzentration wurde durch Applikation von NOC-5 (4 - 20 µg i.t.), 8-Br-cGMP (0,5 - 2,5 µmol i.t.), oder Rp-8-Br-cGMPS (0,1 - 0,25 µmol i.t.) hervorgerufen. Zusammenfassend bestätigen diese Ergebnisse die Hypothese, dass im Rückenmark PKG-1 einen Effektor der NO-induzierten Hyperalgesie darstellt. Darüber hinaus konnte gezeigt werden, dass NO/cGMP über noch unbekannte Mechanismen die Verfügbarkeit bestimmter synaptischer Vesikelproteine moduliert, die vor allem bei starker oder anhaltender nozizeptiver Erregung für die Transmitterausschüttung und damit für die nozizeptive Transmission notwendig sind. Interessanterweise führt NO/cGMP über diese Mechanismen eher zur Hemmung der Nozizeption, was die bei niedrigen intrathekalen Dosen beobachteten antinozizeptiven Effekte von 8-Br-cGMP erklären kann. Die These der NO-induzierten Hyperalgesie kann aufgrund der Untersuchungen in dieser Arbeit und früherer Studien um eine insbesondere in niedriger Dosis auftretende NO/cGMP-vermittelte Antinozizeption erweitert werden.
Die weltweite Vernetzung von Märkten, Kapital und Produktion lässt Entwicklungs- und Schwellenländer der Versuchung des »social dumping« erliegen: Das ohnehin niedrige arbeitsrechtliche Niveau senken sie noch weiter ab, um im globalen Wettbewerb mithalten zu können. Davon betroffen sind Länder in Afrika, Asien und Lateinamerika ebenso wie in Mittel- und Osteuropa. Doch bedroht sind auch die sozialen Errungenschaften in fortgeschrittenen Industrieländern, da die Produktion immer häufiger in Länder mit geringeren Arbeitskosten verlagert wird. Eine Abwärtsspirale ist in Gang gesetzt, der viel beschworene »race to the bottom« erscheint unaufhaltsam. Deshalb soll hier der Frage nachgegangen werden, welche Konzepte der Gegensteuerung sich auf globaler Ebene ausmachen lassen, wie deren Effektivität einzuschätzen ist und welche Zukunftsperspektiven sich aus den bisherigen Erfahrungen gewinnen lassen.
Im Zuge der steigenden Bedeutung der Proteomforschung und der »Molekularisierung« der Medizin werden neue, effizientere Plattformen zur Untersuchung von Proteinen und deren Wechselwirkungen notwendig. Hier bietet die Nanotechnologie, eine Wissenschaft mit Ursprüngen in der Physik und der Halbleiterindustrie, attraktive Lösungsperspektiven. Ein Bereich der Forschung am Institut für Biochemie der Universität Frankfurt um Prof. Dr. Robert Tampé widmet sich den Aspekten der Nanotechnologie zur Entwicklung von Protein-Chips für die Proteomforschung und Erzeugung von Mustern im Kleinstformat.
Fachliche Exzellenz und Bildungsnotstand – diese beiden Extreme beherrschen gegenwärtig die Diskussion um Schul- und Hochschulausbildung. Die Universität Frankfurt stellt sich der Elitediskussion und setzt auf Fokussierung und Schwerpunktbildung. Studiengänge werden modifiziert, die Art und Vielfalt möglicher Abschlüsse internationalen Standards angepasst. Die Universität will und wird wettbewerbsfähig sein, auch im internationalen Vergleich. Darüber sprach Dr. Monika Mölders mit Prof. Dr. Günther Wess, Honorarprofessor der Universität Frankfurt, Forschungsleiter Europa von Aventis und Mitglied der Geschäftsführung der Aventis Pharma Deutschland GmbH.
Shanghai boomt – wieder einmal: Denn bereits Mitte des 19. Jahrhunderts stieg die Hafenstadt zum kulturellen, politischen und ökonomischen Zentrum Chinas auf. Von dieser Stadt gingen so entscheidende Impulse für künstlerische, politische und ökonomische Innovationen aus, dass sie zuweilen sogar von der mentalen chinesischen Landkarte gestrichen wurde. Shanghai ist nicht China. Ein Blick auf die Geschichte lohnt sich, um die Entwicklung dieser heute als Metropole der Superlative und Inbegriff der Modernität gepriesenen Stadt verstehen zu können. Auch damals lebte Shanghai von dem unverwechselbaren Zusammenspiel von Chinesen und Ausländern, was ihren kosmopolitischen Charme ausmachte. Wie vermischten sich westliche und chinesische Einflüsse im kulturellen Leben? Was bedeutete dies für die Welt des Theaters, wo traditionelle und moderne, westliche und chinesische Kunstformen aufeinandertrafen? Lassen sich hier die Anfänge einer chinesischen »Moderne« ausmachen?
Asmodai in Olmütz
(2004)
"Spunda hat sich sowohl als magischer Dichter als auch als Theoretiker und Verkünder der magischen Substanz einer neuen Dichtung in seinem Essayband "Der magische Dichter" (1923) deklariert. Seine Vorstellung von der magischen Dichtung ergab sich aus einer Steigerung und Metamorphose des Expressionismus. [Immerwieder hat es ihn] zu längeren Aufenthalten nach Olmütz, zur Suche nach magischen Phänomenen, [gezogen]. Durch [ihre] geheimnisvollen Kräfte [gab die Stadt] dem Dichter Spunda einen magischen Wink, den er der Öffentlichkeit weitergab:Fort mit der Unterdrückung, fort vom Krieg, fort von der Gewalt. Dieser Wink wirkt wie ein Friedensmanifest, inmitten des Zweiten Weltkrieges."
Daß der Begriff Natur für das 18. Jahrhundert im allgemeinen von kaum zu überbietender Bedeutung ist, ist eine derart grundlegende Erkenntnis, daß sie beinahe ans Triviale grenzt. Auch für die Ästhetik der Zeit ist seine Relevanz unmittelbar einsichtig, wenn auch im einzelnen, für verschiedene Personen und verschiedene Zeiträume, genau zu klären. Wie steht es aber mit dem Roman der Aufklärung und mit seiner - erst in rohen Zügen gegen Ende des Jahrhunderts sich entwickelnden - Theorie? Die Antwort auf diese Frage ist weder naheliegend noch offensichtlich. Lassen wir also als Spezialisten zunächst einen erfahrenen Literaturkritiker zu Wort kommen, der sich im „Teutschen Merkur“ des Jahres 1778 „Ueber den Mangel des Epischen Geistes in unserm lieben Vaterland“ - so der Titel des Beitrags - herzhaft beklagt: „Zum epischen Wesen gehören wackre Sinnen. So sehr man jetzo von Liebe zur Natur schwatzt, so sind doch wenig der Herren Poeten, die so ganz von Natur durch die Gegenwart eines lieben Baums zur Serenade erweckt würden, wie Freund Asmus [d.i. Matthias Claudius]. Bey den meisten ists garstige Tradition, und sie lieben die schöne Natur, weil sie ist beschrieben und besungen worden.“ Ein hartes Urteil, zweifellos; ist es aber auch ein gerechtes? Und wo findet sich die Natur im Roman der Aufklärung, wenn sie nicht von den „lieben Bäumen“ inspiriert ist? Um diese Fragen zu beantworten, werde ich zunächst einige allgemeine Überlegungen zur Entwicklung des Naturbegriffs in der Ästhetik vorausschicken (I), bevor ich mich meinem eigentlichen Thema auf zwei Wegen nähere: Zum einen werde ich die Funktion von Natur als Stoff der Dichtung in Romanen untersuchen, und zwar am Beispiel von literarischen Gärten in empfindsamen und antiempfindsamen Romanen Jean-Jacques Rousseaus, Johann Karl Wezels und Friedrich Heinrich Jacobis (II). Zum zweiten werde ich auf die Funktion der Natur für die Gestaltung des Romans in der Erzähltheorie bei Friedrich Blanckenburg und anderen Kritikern, und zwar in Beziehung zur Gartentheorie der Zeit bei Christian Hirschfeld eingehen (III).
Ich möchte im Folgenden [...] keineswegs versuchen, Goethes Weltliteraturbegriff für die gegenwärtigen geopolitischen Ordnungsstrukturen von Literatur in Anspruch zu nehmen und ihn [...] zu revitalisieren. Vielmehr will ich ihn in paradigmatischer Weise dazu benützen, um einige theoretische Grundprobleme und Argumentationsmuster in den kulturtopographischen Verortungsbemühungen der Literatur zu erörtern und mit der zeitgenössischen Theoriediskussion zu kontrastieren. Ich gehe zunächst so vor, dass wir uns über die wichtigsten Zeugnisse Goethes zum Weltliteraturbegriff anhand der Tischvorlage einen systematisierenden Überblick zu verschaffen suchen. Dadurch werden zugleich Grundmuster der allgemeinen Verortungsdiskussion von Literatur sichtbar. Diese sollen dann anschliessend auf die in der gegenwärtigen Theoriediskussion dominanten Modelle hin projiziert und verlängert werden. Meine Ausführungen wollen aber nicht im Sinne der Darlegung abgeschlossener Erkenntnisse verstanden werden, sondern dienen als Überlegungsangebote für eine anschliessende Diskussion.
[Rudolf Schenda] sah in [der Volksaufklärung] die Ursache für die "äußerst schleppende Bildungsentwicklung des 19. Jahrhunderts, die noch heute stark fortwirkt"; keine geistige Revolution stelle sie dar, sondern lediglich "ein klägliches Gefecht gegen den zähen Brei jahrhundertealter Unbildung". Dieses Gefecht, so wissen wir inzwischen, wurde besonders mittels des geschriebenen und gedruckten Wortes geführt. Mehrere tausend Schriften wandten sich an das leseunwillige Volk, hunderte von Zeitungen und Zeitschriften wurden für einfache Leser geschrieben, und zahllose Autoren zerbrachen sich den Kopf, auf welchen Wegen alle diese Druckerzeugnisse an den anvisierten neuen Adressaten zu bringen seien. Aus diesen Diskussionen, aus dieser neu erschlossenen Literatur insgesamt läßt sich heute ein differenziertes Bild einer Reformbewegung zeichnen, die die ersten Schritte hin zu einer allgemeinen und gleichen Bildung tat. Diese Bemühungen sind voller Widersprüche, Unentschlossenheiten und Unschlüssigkeiten, doch stellen sie die erste Infragestellung des Bildungsprivilegs der oberen Stände dar.
Die Erschaffung des künstlichen Menschen stellt seit Jahrhunderten eine technische und intellektuelle Herausforderung für die Menschen dar. Insbesondere das 18. Jahrhundert wurde als Jahrhundert des Maschinenmenschen verstanden – auch und gerade in seiner Selbstdeutung. Denn es ist das Jahrhundert aufge-klärter Humanität, das den Traum vom künstlichen Menschen zu träumen beginnt, ein Traum, der am Ende des 20. Jahrhunderts als gleichsam virtueller overkill menschliche Lebendigkeit negiert und dadurch zum Alptraum zu werden droht. Vor diesem Hintergrund mag es nützlich sein, noch einmal auf das 18. Jahrhundert zurückzuschauen und sich zu vergegenwärtigen, welche Maschinenvorstellungen virulent waren, wo es um reale Maschinen, wo um Metaphern ging und welches einerseits innovative und andererseits kritische Potential sich damit verknüpfte.
"During a Thunder-Storm", ein 1821 veröffentlichtes Gedicht über das Verhältnis des Menschen zu Gott von John Bowring (1792-1872), hat unlängst einige Aufmerksamkeit auf sich gezogen. Es bildete den obligatorischen Aufgabenteil des Übersetzungswettbewerbes Lyrik-Shuttle, der anläßlich des Europäischen Jahrs der Sprachen 2001 gemeinsam vom Lyrik-Kabinett München und dem Münchener Institut für Allgemeine und Vergleichende Literaturwissenschaft (Komparatistik) erstmalig veranstaltet wurde. Neben der Gebundenheit durch Metrum und Reim, dem Alter und der anspruchsvollen Wortwahl bestand einer der Auswahlgründe für dieses Gedicht seitens der Organisatoren darin, daß es sich um einen unbekannten Text handelte. Die TeilnehmerInnen des Wettbewerbs sollten bei ihrer Lösung der Übersetzungsaufgabe alternativlos Neuland betreten und nicht – wie bei einem prominenteren Gedicht (bzw. Verfasser) zu erwarten – durch bereits vorliegende Nachdichtungen beeinflußt werden. Vor einhundertsiebzig, ja wohl auch noch vor einhundertfünfzig Jahren konnte "During a Thunder-Storm" dagegen eine weit größere Popularität für sich beanspruchen. Die Geschichte, die damit verbunden ist, liefert ein aufschlußreiches Fallbeispiel aus dem Bereich der internationalen literarischen Kommunikation – der zeitgenössischen Entwicklung, die für den späten Goethe zunehmend ins Zentrum seines Interesses rückte und die er seit dem Ende der 1820er Jahre unter der Losung "Weltliteratur" offensiv propagierte.
Als literarisches Konzept der zeichenhaften Vergegenwärtigung, das primär am bildlichen Sehen orientiert ist und die intuitive Wahrnehmung betont, erweitert sich die poetische Funktion von Kleidung und deren Accessoires als gängiges Charakterisierungsmittel fiktiver Figuren am Ende des 18. Jahrhunderts indes um poetologische, dichtungssymbolische Aspekte. Das betrifft den Goetheschen Symbolbegriff ebenso wie die von Herder 1776 in einer Rezension über Lavaters Physiognomische Fragmente aufgestellte Forderung nach einer adäquaten Korrespondenz von Körperausdruck und Sprache im Sinne einer poetisch-anschaulichen, "physiognomischen Sprache". Dies geschieht gleichzeitig vor dem Hintergrund eines lebenspraktischen Umgangs mit einer"toilette parlante", das heißt, einer symbolischen Bedeutung tatsächlich getragener Kleidung. [...] Denn die distinktive Kleidungsfunktion höfischer Etikette vervielfältigt sich im Zuge der Abschaffung von Standeskleidung durch die Französische Revolution nun vermehrt um psychologisch-emotionale Aspekte. Auch die zeitgenössische Schriftstellerin und Modeexpertin Caroline de la Motte Fouqué, Verfasserin einer Geschichte der Moden, [...] ist davon nicht unbeeinflußt geblieben. Inwieweit sie diese dichtungssymbolischen Tendenzen aus Empfindsamkeit, Klassik und Romantik in ihre Werke einbringt und umdeutet, soll daher im folgenden mein Thema sein.
Der Aufsatz präzisiert den Stellenwert der Genieästhetik des Sturm und Drang im Prozeß der Herausbildung einer Ästhetik autonomer Kunst. Die Geniekonzeptionen Herders, Goethes und Lenz´ werden gegenüber der semantischen Tradition differenziert und auf ihre Funktion innerhalb der Ästhetik hin untersucht. Zugleich wird aber auch nach ihrer Problemreferenz außerhalb der Sphäre der Kunst gefragt.
Kritik der Gewalt : über den Begriff der Gewalt von Walter Benjamin, Albert Camus und Frantz Fanon
(2004)
Eine erstaunliche Anklage wegen des Vertriebs eines „obszönen“ Comics ist Anlaß für eine kurze Untersuchung von Argumentationen, die eine spezifisch kindliche Rezeption neuer Medien in der Absicht beschreiben, die juristische Regulierung ihrer Verbreitung zu motivieren. Der Versuch, wahrgenommene Widersprüche in diesen Argumentationen zu erklären, führt schließlich zu der Frage, ob es mißlungene oder etwa besonders gelungene Rezeptionen sind, die in vergleichbaren Kontexten für gefährlich erklärt werden.