Refine
Year of publication
Document Type
- Article (30890)
- Part of Periodical (11931)
- Book (8323)
- Doctoral Thesis (5741)
- Part of a Book (3723)
- Working Paper (3394)
- Review (2879)
- Contribution to a Periodical (2369)
- Preprint (2318)
- Conference Proceeding (1710)
Language
- German (42634)
- English (30251)
- French (1067)
- Portuguese (723)
- Multiple languages (314)
- Croatian (302)
- Spanish (301)
- Italian (195)
- mis (174)
- Turkish (148)
Is part of the Bibliography
- no (76434) (remove)
Keywords
- Deutsch (1038)
- Literatur (809)
- taxonomy (771)
- Deutschland (543)
- Rezension (491)
- new species (457)
- Frankfurt <Main> / Universität (341)
- Rezeption (325)
- Geschichte (292)
- Übersetzung (271)
Institute
- Medizin (7802)
- Präsidium (5239)
- Physik (4754)
- Wirtschaftswissenschaften (2718)
- Extern (2661)
- Gesellschaftswissenschaften (2378)
- Biowissenschaften (2205)
- Biochemie und Chemie (1978)
- Frankfurt Institute for Advanced Studies (FIAS) (1867)
- Informatik (1709)
Methodik: Die in dieser Arbeit entwickelte flowzytometrische Methode ist aufgrund der guten Korrelation zur gängigen Europium Immune Release Methode zur Bestimmung der NK-Zell-, bzw. CD 8 , zytotoxischen T-Lymphozyten Aktivität gut geeignet. Der geringe Zeit- und Kostenaufwand sprechen für die Anwendung dieser Methode. Enzympräparation: Die in dieser Arbeit verwendete Enzympräparation kann die NK-Zell bzw. CD 8 , zytotoxischen T-Lymphozyten Aktivität signifikant steigern. Eine signifikante Mehrfachstimulation ist ebenfalls möglich. Möglicherweise beruht dieser Effekt auf einer erhöhten Freisetzung von TNFa durch die Effektorzellen, die die Targetzellen zum (programmierten) Zelltod bringen. Ferner wird über die Freisetzung weiterer Zytokine berichtet, die eine Stimulierung der Effektorzellen bewirken (durch IL1b und IL6). Immunkomplex gebundene TNFa Moleküle können durch die proteolytische Aktivität freigesetzt werden. Die Ergebnisse weisen auf eine unspezifische Veränderung der Membranbestandteile der Effektorzellen hin, welche eine Freisetzung von Zytokinen bewirkt. Ferner kann die proteolytische Aktivität der Enzympräparate verschiedene Immunkomplexe und sogenannte Blockingfaktoren auflösen. Fazit: Eine signifikante und konzentrationsabhängig immunstimulierende Wirksamkeit der Enzyme ist gegeben. Diskussionswürdig dürfte hier nur die enterale Resorption bzw. Persorption sein (s.Kap I). Die parenterale Applikation ist wegen einer anaphylaktischen Reaktion risikoreich. Denkbar wäre eine ex vivo "Therapie" isolierter humaner Lymphozyten mit anschließender Wiederzufuhr in den Kreislauf. Die Aktivierenden Konzentrationen für die Enzyme liegen im Bereich von 20 bis 160 µg/ml bei einer Einfachstimulation. Bei höheren Konzentrationen als 320 µg/ml beginnt der toxische Bereich. Bei der Mehrfachstimulation von Lymphozyten liegt der aktivierende Bereich zwischen 10 bis 80 µg/ml, wobei die höheren Konzentrationen toxisch wirken. Retinoide: Eine konzentrationsabhängige signifikante Steigerung der NK-Zell- bzw. CD 8 , zytotoxischen T-Lymphozyten Aktivität ist gegeben. Die NK Zellaktivität konnte bei Konzentrationen von 10 8 bzw. 10 6 M mit Retinsäure und Retinol gesteigert werden, die Aktivität von CD 8 zytotoxischen T-Lymphozyten hingegen nur durch Retinsäure. Das Lösungsmittel DMSO bewirkte keine signifikante Aktivitätsänderungen. Diskutiert wird hier eine erhöhte Expression des IL2-Rezeptors sowie die des CD3 Rezeptors, als Ursache für die Aktivitätssteigerung führen soll. Der Fas-Ligand hingegen wird herabreguliert, was eine "Selbsttötung" der Effektorzellen verhindert. Die vermehrte Produktion von Zytokinen (IL2, IL4, IL6, IL10 und IFNgamma), deren Gehalt die im Überstand Retinol behandelter Zellen zunimmt, kann ebenfalls zur Aktivitätssteigerung führen.
Die G/F-Transition zytoskelettärer Elemente bildet die molekulare Basis zur Kontrolle der Zellform, Motilität, Migration und Invasivität von Zellen. Die Änderungen der Filamentlängen werden durch bindende Proteine kontrolliert, wodurch sich die viskoelastischen Eigenschaften des Zytoplasmas ändern. Die Kenntnis der mechanischen Eigenschaften der einzelnen Zytoskelettelemente in vitro (mit und ohne bindende Proteine) ist die Grundlage zum Verständnis der Zellmechanik. Daher wurde eine nicht destruktive Methode zur Bestimmung viskoelastischer Eigenschaften von Gelen und Flüssigkeiten entwickelt. Als Viskositätssensor dient ein kleines Glasstäbchen, welches in der zu untersuchenden Flüssigkeit in seiner Resonanzfrequenz schwingt. Aufgrund der Zähigkeit der Flüssigkeiten kommt es zur Mitbewegung angrenzender Flüssigkeitsschichten. Die Eindringtiefe der erzeugten Scherwellen ist eine Funktion der Viskosität und der Dichte der Flüssigkeit. Die extrem kleinen Auslenkungen (1100 nm) des Sensors werden von einem phasensensitiven akustischen Mikroskop detektiert, welches gleichzeitig die Detektion des Elastizitätsmoduls der Flüssigkeit ermöglicht. Nach Aufbau und Weiterentwicklung des Gerätes wurde die Viskoelastizität während der Polymerisation von Aktin, Tubulin und Neurofilamentprotein gemessen sowie während der Interaktion der Polymere mit einer Reihe spezifisch bindender Proteine, wie z.B. aAktinin, Profilin, Glykolyseenzyme, MAPs bzw. Zellgiften wie Cytochalasin D, Phalloidin, Colchizin und Taxol. Im Vergleich zu FAktinlösungen ist die dynamische Viskosität von Mikrotubulilösungen um eine Zehnerpotenz und die Schallgeschwindigkeit um etwa 100 m/s höher. Die Viskoelastizität von Nicht-Muskelaktin ist im Vergleich zu Muskelaktin etwa dreimal höher. Die steadystate-Viskositäten von F-Aktin und Mikrotubulilösungen nähern sich mit steigender Proteinkonzentration einem Maximalwert an, wohingegen die Elastizitäten sich einem Minimalwert annähern, was auf eine nematische Phasentransition zurückzuführen ist. Der Schallgeschwindigkeitsverlauf während der Polymerisation von Aktin und Tubulin ist biphasisch: er nimmt zunächst vor messbaren Viskositätsänderungen zu, was hinsichtlich des Aktins auf eine Zunahme steifer Aktinprimer und hinsichtlich des Tubulins auf die Bildung oligomerer Strukturen mit hoher intrinsischer Steifigkeit zurückzuführen ist. Für Proteinkonzentrationen >20 µM fällt dann die Schallgeschwindigkeit nach dem Erreichen des Viskositätsmaximums ab, was durch eine erhöhte Volumenkompressibilität infolge zunehmender Hydratation der Polymere begründet ist. Versuche mit polymerisationsfördernden bzw. depolymerisierenden Agenzien wie Taxol bzw. Colchizin und Kalzium zeigen, dass die hohe Elastizität von Mikrotubulilösungen durch die intrinsische Elastizität der Tubulinoligomere dominiert wird. Die Viskosität von Mikrotubuli mit assoziierten MAPs (MTP) ist im Vergleich zu FAktin ungefähr doppelt so hoch und im Vergleich zu PC-Tubulin ungefähr dreimal niedriger. Die Elastizität von MTP ist im Vergleich zu FAktin durchschnittlich 4 % höher und 3 % niedriger im Vergleich zu MAP-freien Mikrotubuli. Die Assoziationen von Neurofilamenten an Mikrotubuli induzierte einen Viskositätsanstieg, während die Elastizität fiel, was auf eine Destabilisation der Mikrotubuli während der Interaktion zurückzuführen ist. Die Destabilisation ist möglicherweise eine Folge einer GTP-Hydrolyse durch die an den Neurofilamenten assoziierte GTPase. Neben den zeitlich voneinander unabhängigen Verläufen der Schallgeschwindigkeit und der Viskosität konnte mit Hilfe der Detektion der Schalldämpfung während der Polymerisation von Aktin eine weitere zeitlich unabhängig verlaufende Kinetik bestimmt werden, welche mit der Quervernetzung und der Filamentlänge zusammenhängt. Die Schalldämpfung von Neurofilamenten ist im Vergleich zu F-Aktin etwa 10mal höher. Während der Polymerisation von Tubulin, mit und ohne MAPs, konnte aufgrund hoher Schallreflektionen, bedingt durch die festkörperähnlichen Strukturen, keine klar definierte Schalldämpfungskinetik bestimmt werden. Die Elastizität von Aktingelen (1 mg/ml) hängt nicht mit der Deformationsfrequenz (0,0533 kHz) zusammen. Nach der Zugabe von a-Aktinin steigt jedoch die Elastizität mit der Frequenz gemäß dem Verhalten eines elastischen Körpers an. Auch durch die Zugabe hoher ATP-Konzentrationen (2 mM) kann die Elastizität von Aktin erhöht werden. Impulsartige Modulationen der Schwingungsamplitude von ± 30 nm senkten die Viskosität von Aktingelen (< 25 µM) um 50 %, was auf ein Zerschlagen und Umorientieren von Filamenten zurückzuführen ist. Durch die Zugabe von aAktinin waren diese Viskositätsänderungen siebenmal niedriger. Die Viskosität von Aktingelen > 50 µM konnte durch impulsartige Erhöhungen der Schwingungsamplitude (> 40 nm) nicht verringert werden. Ebenso wurden die Viskositäten von Tubulingelen (15100 µM) und Neurofilamentlösungen (> 0,5 µM) durch impulsartige Deformationen im Nanometerbereich (10100 nm) nicht beeinflusst. Niedrige Profilinkonzentrationen (Aktin:Profilin 1) fördern die Polymerisation von Mg 2 bgGAktin. Ebenso führt die Zugabe von Profilin (Aktin:Profilin = 1:1) zu bereits polymerisiertem Aktin zu einer Viskositätszunahme. Profilin im Überschuss (Aktin:Profilin = 1:5) hemmt die Polymerisation von Mg 2 bgG Aktin. Im Gegensatz zu Muskelaktin verliert NichtMuskelaktin nach einiger Zeit (> 40 Minuten) seine Elastizität. Dieser Elastizitätsverlust kann durch die Zugabe von Profilin verzögert werden. Nach der Zugabe geringer Profilinkonzentrationen zu bgAktin wurde anhand von EM-Aufnahmen vermehrt nicht filamentöse Aktin-Aggregate gezeigt, welches besonders hohe Elastizitätswerte aufwies. Zusammen mit den rheologischen Befunden für Aktin und Mikrotubulilösungen kann geschlossen werden, dass nicht filamentöse Formen zytoskelettärer Elemente (Tubulinoligomere, Aktintrimere, GAktincluster) in hohem Maße zur Elastizität von Zellen beitragen. Hexokinase fördert die Polymerisation von Aktin. In Gegenwart hoher ATP-Konzentrationen wirkt sie durch Fragmentierung von Aktinfilamenten elastizitätsmindernd. In Gegenwart von Glukose wird dieser Effekt aufgehoben. LDHH 4 fördert in Gegenwart ihres Coenzyms NADH die Polymerisation von Aktin. Gibt man zusätzlich Pyruvat hinzu, so wird dieser Effekt nahezu umgekehrt. Unter diesen Bedingungen ist ferner die Enzymaktivität der LDHH 4 eingeschränkt. Umgekehrt fördert die LDHH 4 in Gegenwart von Laktat und NAD die Polymerisation von Aktin, wobei gleichzeitig die Enzymaktivität der LDHH 4 erhöht ist. Diese Befunde sprechen für eine deutliche Reziprozität zwischen LDHH 4 und Aktin. Aldolase reduziert deutlich die Viskoelastizität von F-Aktin, was in der Bildung von F-Aktin-Aldolase Parakristallen begründet ist. Die Zugabe des Substrates FBP erhöht hingegen die Viskoelastizität von F Aktin. Der Effekt hängt jedoch davon ab, ob Magnesium-Ionen an den Aldolase-G-Aktin-Komplex binden. Wird Aldolase zu polymerisierendem Aktin zugegeben, so bleibt die Viskosität der Lösung unverändert, während die Elastizität zunimmt. In diesem Falle wird die Steifigkeit der Filamente durch die Anla gerung der Aldolase erhöht. Zytosolische, nichtmembrangebundene Enzyme, wie die Aldolase, Hexokinase und LDH binden demnach an F-Aktin und modulieren seine Mechanik. Das Ausmaß der Modulation hängt von der Konzentration der Enzyme sowie der Gegenwart der jeweiligen Substrate ab. Ferner moduliert Aktin reziprok die Aktivität der Enzyme.
Exemplarisch anhand der Offenbacher Lohwald-Siedlung, einem klassischen sozialen Brennpunkt, der sich in den vergangenen drei Jahrzehnten vom Obdachlosen-Asyl hin zu einem modernen Ghetto verwandelt hat, werden Lebenssituation, Lebensentwürfe und die Lebensperspektiven jugendlicher Brennpunkt-BewohnerInnen beschrieben. Hierzu werden die Entwicklungsgeschichte und die Beschreibung der räumlichen Segregation des Wohngebietes sowie Angaben zur Sozial- und Infrastruktur des Stadtteils und die Beschreibung der Lebens- und Sozialisationsbedingungen ebenso herangezogen wie die analytische Betrachtung komplexer gesellschaftlicher Entwicklungen und die Selbsteinschätzungen und -deutungen junger Lohwald-BewohnerInnen, die im Rahmen einer empirischen Untersuchung ermittelt wurden. Zwar ergab die Gesamtuntersuchung, dass der Charakter der Lohwald-Siedlung als ein nach innen und aussen relativ geschlossenes Ghetto brüchig und nach beiden Seiten hin durchlässig geworden ist, und dass diese Entwicklung sich auch in den jugendlichen Orientierungsmustern niederschlägt. Doch dies ist nicht gleichbedeutend, dass sich dadurch der Brennpunktcharakter der Siedlung aufgelöst hat. Für viele junge Menschen ist Aufwachsen im sozialen Brennpunkt nach wie vor gleichbedeutend mit Unterversorgung, Beeinträchtigung, Benachteiligung und Stigmatisierung sowie fehlender Förderung in wesentlichen basalen Bereichen. Das Zusammenkommen defizitärer familiärer Sozialisation und einer häufig problempotenzierenden Sozialisation durch die Gleichaltrigengruppe (Peergroup) unter den Bedingungen begrenzter Erlebnis-, Erfahrungs- und Erkenntnismöglichkeiten, fehlender Lernfelder und mangelnder Erfolgs- sowie Anerkennungsmöglichkeiten haben u.a. zur Folge, dass wichtige Einstellungs- und Verhaltensmuster und Schlüsselqualifikationen fehlen bzw. nicht ausreichend ausgeprägt sind, um den unterschiedlichsten Anforderungen eines Lebens außerhalb des sozialen Brennpunktes und einer sich immer rascher wandelnden Gesellschaft entsprechen zu können. Doch nicht nur die subjektiven Dispositionen sondern auch die objektiv-gesellschaftlichen Bedingungen, die sich aus der Dynamik gesellschaftlichen Wandels ergeben erhöhen für viele Brennpunkjugendlichen die Wahrscheinlichkeit der Aufrechterhaltung ihrer Randgruppenexistenz und somit ihres Verbleibs im unteren Drittel, wenn nicht Zehntel der Gesellschaft. Dem entgegenzuwirken ist nicht nur Aufgabe von Sozialpolitik sondern auch von Sozialarbeit. Ausgehend von den ermittelten Bedarfen vor Ort werden Theorie und Praxis eines zielgruppenorientierten Konzeptes von Jugendarbeit vorgestellt, das sich nach wie vor dem emanzipatorischen Anspruch verpflichtet sieht, zur Persönlichkeitsentwicklung- und Bewusst- seinsbildung beizutragen. Nicht nur weil dies den Erfordernissen des gegenwärtigen Arbeitsmarktes entspricht oder zu einem gelingenderen Umgang mit den Anforderungen führt, die sich aus den gesellschaftlichen Strukturwandlungsprozessen ergeben, sondern weil dies als wichtiger Beitrag zu verstehen ist, junge Menschen in die Lage zu versetzen, sich, ihre Umwelt, ihre Situation und deren Ursachen aber auch ihre Zukunftsperspektiven verstehen und tendenziell auch verändern zu können. Es geht also um die Begründung und Beschreibung einer Jugendarbeit, die zur Bewusstmachung und Eröffnung von Handlungsfeldern führt. Anhand der Theorie, des Konzeptes und der Praxis erlebnisorientierter Jugend(kultur)arbeit im Lohwald und deren Evaluation u.a. durch empirische Befunde wird nicht nur aufgezeigt, dass eine solche Jugendarbeit erfolgreich sein kann, sondern auch, das die Debatten um die sozialisatorische und politische Produktivität von Jugendarbeit nach wie vor aktuell sind.
Soziokulturelle Funktionen von daytime Talkshows: Die den Untersuchungen zugrundeliegenden Annahme war, TV-Talkshows als Teil eines gesellschaftlichen Diskurses, als eine mit spezifischen Merkmalen ausgestattete Art der Sprachverwendung zu betrachten, die gerade als kollektive, gesellschaftliche Praxis determinierende Faktoren und spezifische Wirkungen hat. Ihre Manifestationen als Programm, Videoband oder (in reduzierter Form) als verschriftetes Transkript wurden als "Text" definiert, der innerhalb der soziokulturellen Ordnung bestimmte Aufgaben hat, und dessen Funktionen sich nicht allein als lokale Funktionen (die sich auf die unmittelbare Situation als gelenktes Gespräch im Studio vor Publikum beziehen) erklären lassen. Der gesellschaftliche Effekt (die Funktion?) der hier untersuchten daytime talkshows ist ein öffentliches In-Erscheinung-Treten und ein komplementär dazu wirkendes Wahrnehmen des Privatmenschen in seiner Alltäglichkeit, des Durchschnittsmenschen im Medium Fernsehen. Dieser alltägliche Durchschnittsmensch kann durchaus als "the nigger of tv" gesehen werden, denn außer seiner (bisweilen nackten) Haut - oder seinem Innenleben hat er dem Fernsehen nichts zu verkaufen, denn er ist ja gerade nicht prominent, attraktiv, glamourös oder aus anderen Gründen begehrenswert für ein Publikum. Doch zu der Bedingung, seine seelischen Defekte öffentlich vorzuführen, ist auch ihm jederzeit ein Platz im Glanz der Scheinwerfer gewiß. Daß sich so viele zu einer öffentlichen Innenschau entschließen können, hängt vermutlich mit einem medialen Narzißmus zusammen, der die Spiegelung im Blick des Anderen zum Beweis seiner Existenz braucht. In einer von den visuellen Medien, insbesondere dem Fernsehen durchdrungene Lebenswelt, ist das Bedürfnis des namenlosen, unscheinbaren Alltagsmenschen, ebenfalls als ein in dieser TV-Welt existierendes Subjekt wahrgenommen zu werden, möglicherweise verständlich. Dieses Subjekt der Talkshow wird jedoch erst durch Konventionen des Sprachgebrauchs und der Interaktion, durch gezielte Bildführung und Auswahl der Einstellungen, durch sozial signifizierte Formen von Makeup und Dresscodes, aber auch durch Zuschreibungen und Kategorisierungen sowie durch Möglichkeiten (oder Unmöglichkeiten) der zumeist konversationell narrativ realisierten Selbstdarstellung etc. konstituiert und als "Typus" entwickelt. Es ist ein Effekt des Talkshowspezifischen Diskurses. Gleichzeitig ist es Objekt dieses Diskurses, insofern sich alle Teilnehmer über dieses Subjekt (über sein Innenleben, seine Probleme, geeignete Korrekturverfahren etc.) unterhalten. Die soziale (nicht die individuelle!) Identität als Durchschnittsmensch in seiner öffentlichen, gesellschaftlichen Erscheinungsform wird in solchen TVDiskursen erst produziert, und historisch betrachtet ist sie noch eine junge Erscheinung: TV-Talkshows dieses Zuschnitts haben sich erst Ende der achtziger Jahre herausgebildet. Die Showproduzenten sehen explizit eine auf Selbsterkenntnis ausgerichtete, beratende, (alltags-)problemlösende Funktion ihrer Programme, "der Alltagsmensch in Not wird hier geholfen", so würde V. Feldbusch von Sat1 vermutlich formulieren. Als selbsternannte Fernsehvariante eines Ratgeberdiskurstyps ist das Alltagssubjekt aufgefordert, einen Diskurs über es selbst zu halten (Gestehen), Diskursen anderer über es selbst zuzuhören (Informiert-/Belehrt-/Ermahnt-Werden). In dieser Hinsicht ist die hier untersuchte Form von Talkshows auch als gesellschaftliche Praxis zu verstehen, die auf ihre triviale Weise ein "Wissen vom Subjekt" (über sog. subjektive, innere Verfaßtheit, psychische Eigenschaften) hervorbringt, täglich reproduziert und massenhaft verbreitet. Dieses weitgehend durch eine therapeutische Weltanschauung strukturierte, entblößende "Wissen" wird zwischen den Beteiligten jedoch in Formen verhandelt, die die Strukturen und Merkmale eines privates Gespräch simulieren. Das Sprechen über den Privatbereich wird formal auch als privates Gespräch simuliert, weist aber eine hybride Struktur zwischen Abfrageformat und informellem Gespräch auf. Dabei war festzustellen, daß die Teile des Hybrids den Teilnehmerkategorien GUE und HOST nicht zu gleichen Teilen zufallen, sondern die Moderatorin die Optionen informeller Gesprächsorganistationen und Merkmale nutzt, während den Gästen nur die Optionen des reaktiven Parts im Interviewrahmen zustehen und sie auch im Bereich der Lexis selten Gebrauch vom informellen Register machen . In einer merkwürdigen Umkehrung des Faktischen erweist sich die "Redeweise des Volkes" gerade ausschließlich als Option der Moderatorin, die eben nicht die Massen, sondern die Institution, das Medium verkörpert. Talkshowdiskurse formieren öffentlich wahrnehmbare, medial konstituierte soziale Subjekte, die jedoch nicht als Rollen und Statusträger oder Repräsentanten von Institutionen, auch nicht als "Popstars", sondern gerade als "einfache Durchschnittsmenschen" konstituiert werden. Diese Typisierung bzw. Konturierung einer öffentlichen Form des Alltagsmenschen erfolgt jedoch nicht allein über Bilder und Repräsentationen, sondern weitgehend, aber unmerklicher durch diskursive Praktiken, durch den Umgang mit dem Subjekt der Talkshow, durch Interaktionskonventionen und anderen Modalitäten des Sprechens wie Höflichkeitsstrategien oder bestimmte narrative Verfahren, die in selbstdarstellerischer Absicht Sprecheridentitäten artikulieren. Die je Talkshow spezifische Konfiguration solcher subjektkonstitutiver Praktiken auf verschiedenen Ebenen des Diskurses ergibt eine Kontur, einen durch die Talkshow produzierten und nur vermittels der Praktiken, nie jedoch explizit charakterisierten "Entwurf" des Alltagsmenschen (z.B. ohnmächtig, Autoritäten unterworfen, selbstermächtigt, einsichtsfähig, vereinzelt, einer neben vielen usw.). Diese Typisierung bzw. implizite Charakterisierung durch Konventionen des Sprachgebrauchs und der Gesprächsstruktur wird maßgeblich in der Differenz zu den Positionen der anderen Diskursteilnehmer (Experten, Studiopublikum, Moderatorin) herausgebildet. Diese Diskurssubjekte stehen in einem für den Diskurstyp je charakteristischen Verhältnis zum Diskurs, zu den Modalitäten des Sprechens und zu anderen Subjektpositionen, von denen aus gesprochen werden kann. Subjektpositionen sind die unabhängig vom jeweils auf dem Podium platznehmenden Individuum vorstrukturierten, mit bestimmten Möglichkeiten des Sprechens ausgestatteten, an bestimmte kommunikative Handlungen gebundenen, mit bestimmten interaktionellen Vorrechten ausgestatteten etc. transindividuellen Äußerungsmöglichkeiten, die, realisiert, ein typisches Exemplar dieser Subjektposition zur öffentlichen Erscheinung bringen. Insofern sind diskursiv positionierte (konstituierte) Subjekte bzw. Subjektpositionen gleichzusetzen mit den spezifischen Äußerungsmodalitäten des jeweiligen Diskurstyps. Unter der Perspektive einer kritischen Diskursanalyse werden diese Vorgänge als moderne Form von Machtausübung und Ideologie betrachtet. Der Fokus auf die diskursiven Praktiken, die unscheinbare Normalisierungs und Disziplinierungseffekte bewirken als explizite Repräsentationen und Repression, lenkt das Augenmerk auf das, was Foucault den technologischen Aspekt von Macht bezeichnet. Machttechnologien stellen über konventionalisierte Diskurspraktiken gesellschaftliche Ordnung und Dominanz her, regulieren über Kommunikationsverhalten die Masse der Bevölkerung bzw. reproduzieren diese (hegemoniale) Ordnung in unzähligen, alltäglichen Mikropraktiken zwischen Institutionen und ihrer Klientel. Nicht nur in Talkshows handelt es sich bei solchen Praktiken weitgehend um sprachlich strukturierte Praktiken. Auch sprachlich konstituierte Verhältnisse artikulieren Machtverhältnisse, sie strukturieren sich nach Gleichheit/Nähe oder Ungleichheit/Distanz. Subjektpositionen sind die Pole in diesem Verhältnis. Da jedoch Subjektpositionen von diskursiven Positionen, d.h., Sprecherpositionen bestimmt werden, gilt es die Formen und Möglichkeiten des Sprechens der unterschiedlichen Teilnehmerkategorien im Talkshowdiskurs genau zu analysieren: In welcher Form zu welchen Bedingungen kann wer was wem gegenüber wie artikulieren? Wer mit wem in welcher Form interagieren? Welche Implikationen hat das? Welche sprachlichen Strukturen und Prozesse strukturieren dieses Sprechen und inwiefern strukturieren die sprachlich diskursiven Formen das Verhältnis der Diskurspositionen? In welchen sprachlichen Formen wird das Subjekt/ive verhandelt, und vor allem: Welches Sprechen legitimiert den medial konstituierten Durchschnittsmenschen? Prämissen, Vorgehensweise und Ergebnisse Um sich der Problemstellung zu nähern und die Mikropraktiken des Sprachgebrauchs funktional zu erfassen, wurde eine systemischlinguistische sprachtheoretische Perspektive eingenommen, die die primären Funktionen von Sprache in eine repräsentationsorientierte, eine interpersonell ausgerichtete und eine textuelle Dimension gliedert. Da es galt, diskursive Praktiken hervorzuheben, die sich nur durch den Bezug auf Akteure und Handlungen zwischen diesen beschreiben lassen, lag der Schwerpunkt der Untersuchung auf den sprachlichdiskursiven Merkmalen, die die Verhältnisse zwischen den Diskursbeteiligten bzw. die der Teilnehmer zum Diskurs regulieren und artikulieren. Die Entscheidung, zwei unterschiedliche Talkshowreihen zu untersuchen, beruht auf der Annahme, daß erst der kontrastierende Blick es ermöglicht, wesentliche Merkmale und Spezifika des Diskurstyps zu erfassen. Oft rücken nur über vergleichende Analysen kennzeichnende Aspekte in den Mittelpunkt, die bei homogeneren Daten möglicherweise unterbeleuchtet blieben. So konnten unterschiedliche Optionen der Realisierung bestimmter funktional definierter Vorgänge (z.B. das Vorstellen, die Einführung, die Befragung usw.), die innerhalb ähnlich strukturierter Diskurstypen zur Verfügung stehen und für z.T. signifikante Unterschiede sorgen, präzisiert werden. Die Auswahl der zu untersuchenden Phänomene und Merkmale wurden durch dieses vergleichende Lesen der Transkripte erheblich beeinflußt. Der Reihe nach wurden mit sprachwissenschaftlichem sowie interaktionsanalytischem Instrumentarium die Gesprächsorganisation, die Fremddefinitionen und Kategorisierungen des Subjekts der Talkshow durch die Einführungs und Einleitungsverfahren auf verschiedenen (visuellen, graphischen und sprachlichen) Ebenen untersucht. Im Anschluß daran standen kommunikative Handlungen zwischen den Diskursteilnehmern im Mittelpunkt, mit dem Schwerpunkt auf Analysen von Fragehandlungen und Frageformaten der Moderatorinnen und persönlichen Erzählungen der Alltagsmenschen/Gäste. Implikationen der sprachlichen Organisation und der verbalen oder kommunikativen Strukturen für die Subjektpositionen der Beteiligten wurden herausgearbeitet. Sodann habe ich mich auf den Diskurs der Experten konzentriert und Strategien der Subjektkonstitution dargestellt. Dabei ging es vor allem darum, wie das "ExpertenWissen" in diesen Shows auf das Subjekt zurückwirkt, welche Formen der "Beratungs/Ratgeberdiskurs" annimmt und welche SubjektEffekte dies zeitigt. Dabei wurde deutlich, daß beide Showreihen unterschiedliche Subjektpositionen für den Fernseh Durchschnittsmenschen konstituieren, die sich aus den ebenfalls unterschiedlichen Strukturierungen und Differenzen zu den anderen Positionen (Experten, Moderatorinnen, Studiopublikum) ergeben. Um den Aspekt der Macht und die gesellschaftliche Funktion der Talkshowpraktiken in die Untersuchungen einzuführen, wurde auf das Konzept der Machttechnologien zurückgegriffen, wie von Foucault (z.B. 1977) skizziert. Er verweist auf zwei grundlegende Metastrategien, die ungeregelte "Masse Mensch" gesellschaftlich (staatlich, hegemonialkulturell) zu disziplinieren, zu steuern und letztenendes verwaltbar zu machen, auf seinen gesellschaftlichen Platz zu verweisen, indem sie zu Subjekten (gemacht) werden. Es handelt sich dabei um die Machttechnologien der Objektivierung und der Subjektivierung von Individuen, die sich jeweils durch verschiedene Verfahren auszeichnen, wie ein Wissen vom Menschen hervorgebracht wird, das dann von den Individuen als "ihre Wahrheit" bzw. als die Beschreibung ihres "wahren Selbst" von ihnen selbst angenommen und diskursiv reproduziert wird. Die Möglichkeiten, sich als Selbst wahrzunehmen, die Formen, in denen dies geschieht und die Repräsentationen, die damit verbunden sind, stehen daher immer in einem sei's konservierenden, sei's subversiven Verhältnis zu Macht. Die Kennzeichen beider Machttechnologien habe ich in Anlehnung an Ausführungen von Foucault (1977;1983) bzw. seiner Interpreten Dreyfus und Rabinow (1987) versuchsweise und relativ frei auf interaktionelle und diskursive Verfahren in den Talkshows übertragen, was mir allerdings unproblematisch erscheint, denn die "Strategien" sind in aller Regel in Verbindung mit Sprache realisierte Vorgänge. Insofern entspricht es nur einer Präzision auf konkreter sprachlicher Ebene (was Foucault schuldig bleibt). Es wurde also der Versuch unternommen, diskursive Korrelate zu den von Foucault nur sehr allgemein formulierten Merkmalen der Technologien zur Subjektkonstitution zu finden und gesprächsanalytisch erfaßbar zu machen. Als Objektivierungsprozesse lassen sich die Verfahren beschreiben, die die Diskursteilnehmer zu AusstellungsObjekten (des Blicks und der Rede) machen. Andererseits gibt es subjektivierende diskursive Verfahren, die die Teilnehmer als Subjekt konstituieren, indem sie zur relativ ungelenkten, freigewählten Diskursproduktion, d.h. zu längerem und ggf. auch eigenintitiativen Sprechen animiert werden, allerdings immer in Erwartung, ihr "wahres Selbst" der Öffentlichkeit auszustellen ("gestehen"), das im Anschluß daran von einer Experteninstanz ausgedeutet wird. Sprachlichdiskursiv realisierte Objektivierungsstrategien definieren sich z.B. durch Verfahren der (mit negativ konnotierten Werten beladenen) Identifizierung, Fremdkategorisierung, Aussonderung und Vereinzelung, die in überaus großem Maß in den Shows von Rolonda festzustellen sind. Das impliziert den Fokus auf das konkrete Individuum und den Einzelfall, der vor den Augen der Öffentlichkeit vorgeführt, belehrt und ermahnt wird. Durch Identifikation und Fremdkategorisierung wird das Subjekt der Talkshow zum Objekt der Rede gemacht, anstatt es selbst sprechen zu lassen. In dieser Hinsicht spielen vor allem die Untertitel, die Einleitungsdefinitionen der Moderatorin (v.a. in Rolonda) und der Gebrauch der Personalpronomen, insbesondere des persönlich gebrauchten, definiten "you" eine große Rolle, die als personalisierende Identifizierungspraktiken stark vereinzelnde Effekte haben. Kategorisierungen der Personen, die im Dienste der Show operieren und sie von vornherein auf bestimmte Wahrnehmungen festlegen, sind ebenfalls objektivierende Talkshowpraktiken: Reduktionen auf die "Eigenschaft" der Familienzughörigkeit, Subsumtion unter das Tagesthema und Definitionen in Abhängigkeit von selbstdefinierten Absichten der Showgestalter ("helfen, glücklich machen, bessern") klassifizieren das TalkshowSubjekt jeden Tag aufs Neue in den immer gleichen Mustern als unfähig zur Selbsthilfe, als Schädling und Problem für die anderen und als disziplinierungsbedürftig. In Rolonda fand sich zudem ein spezielles Aussonderungsverfahren, das in der Moderationsstrategie des inhaltlichthematisch definierten "Stehenlassens" der Fragerunden bei spektakulären Details besteht. Das hat den Effekt, ein grelles Schlaglicht auf das Individuum zu werfen, es in einem Detail bloßzulegen, ohne ihm im Anschluß weitere Relativierungen und Kommentare zu ermöglichen (da die Moderatorin schon zum nächsten Gast und nächsten Thema gewechselt hat). Dazu gehören die auf Lupeneffekte und Details ausgerichtete Frageführung der Moderatorin, die Hinführung der persönlichen Erzählungen auf MiniSzenen und affektiv aufgeladene Einzelmomente, die das Subjektive auf spektakuläre Ereignisse reduzieren und aus seinem lebensweltlichen Zusammenhang reißen. Spiegelvorhaltungstechniken als verdinglichende Disziplinierungsmaßnahme wurden ebenfalls identifiziert. In visuellen Repräsentationen soll das Subjekt sich spiegeln und wiedererkennen. Ein Verfahren in Rolonda ist es, den ZuschauerInnen das Alltagsleben der als Gäste eingeladenen Durchschnittsmenschen in Form eines pseudo dokumentarischen Filmclips zu präsentieren und sie im Anschluß daran mit dem (darin gezeigten) Fehlverhalten zu konfrontieren, sie zu veranlassen, es zu verurteilen und andere Stimmen zu diesen Spiegelungen Stellung nehmen zu lassen (in Form von Verurteilung, Tadel, Zurechtweisung). Ein weiteres Spiegelungverfahren (mit disziplinierender oder kathartischer Absicht) in Rolonda stellt die Strategie dar, das Fehlverhalten im Studio zu provozieren und live auf dem Podium in Szene zu setzen (z.B. der Streit zwischen Mutter und Tochter, der vorführt, daß die Mutter ihre Tochter nicht disziplinieren kann in Anger; Zornausbruch und Kommunikationszusammenbruch in der Auseinandersetzung von Jeremy und dem Mann im Publikum, wobie vorführt wird, daß Jeremy nicht in der Lage ist, seinen Frustrationen Ausdruck zu verleihen etc.). Dabei wird jedoch eher dem Publikum als den Gästen ein Spiegel vorgehalten, der vermutlich als Abschreckung dienen soll. Zum Objekt der Rede wird der FernsehPrivatmensch auch im Expertendiskurs, der seine Innenwelt analysiert oder ggf. korrigiert. Das Interaktionsarrangement in Rolonda ist dabei so, daß nicht GUE Dialogpartner dieser Analysen sind, sondern die Moderatorin. Das Subjekt wird so zum Gegenstand der Analyse eines Autoritätendiskurses, der aber mit anderen Autoritäten (nämlich mit der medienspezifischen Machtposition HOST) geführt wird. Durch Befragungstechniken und Frageformate wird die Innenschau auf das Subjekt möglich und seine diskursive Position gleichzeitig stark beschränkt und kontrolliert. Auf linguistischer Ebene korrespondiert dies mit Frageformaten in Deklarativformen, die inhaltlich aus vollständigen Propositionen bestehen, die nur noch bestätigt werden müssen. Dies schränkt den inhaltlichen wie den kommunikativen Spielraum der Befragten ein, weil es konversationell präferiert ist, eine Bestätigungshandlung im Anschluß zu produzieren, und weil es kommunikativ nur einer minimalen Antwort (ja/nein) bedarf, um die Replik zu vollziehen. Dadurch sind die Gäste, bereits schon in reaktiver Position durch den Interviewrahmen, abhängig von einer weiteren, expliziten Aufforderung, einen längeren oder einen inhaltlich konträren Redebeitrag zu liefern. Andererseits ist auf der interpersonellen Ebene eine Deklarativfrage der HOSTs prekärer als ein klassisches Frageformat mit Fragewort und Verbinversion. Denn HOST kann ihr (interaktionell definiertes) Gesicht verlieren, wenn sie eine unrichtige oder nur teilweise richtige Proposition formuliert. In dieser Hinsicht wurde die Präferenz für Deklarativfragen als Modus des informellen Sprechens definiert, weil eine gegenseitige Abhängigkeit entsteht, die in der Regel mit dem egalitär strukturierten ChatModus assoziiert wird. Es wurde festgestellt, daß HOST/Rolonda kaum, HOST/Winfrey jedoch häufig mit diesem Format operiert, sich also auch als gleichwertiger Interaktionspartner ihren Gästen gegenüber konstituiert. Normalisierung und Messen an Standards ist ein weiteres Merkmal der Machttechnologie durch Objektivierungspraktiken. Normalisierungsversuche verweisen das Subjekt auf seinen Platz, häufig im Zusammenhang mit Normgeboten, Aufforderungen zur Veränderung usw. Normalisierende Disziplinierungsdiskurse werden in Talkshows u.a. durch die Warnungen und Zurechtweisungen des Studiopublikums gegenüber den Gästen bzw. durch den kategorischen, einflußnehmenden Redestil der ExpertInnen realisiert. Das Subjekt wird immer wieder Gegenstand und Zielscheibe für disziplinierende Interventionen und Eingriffe. Ein Äquivalent zu den objektivierenden Teilungspraktiken, die durch klare Entweder/OderTrennungen Individuen bestimmten Klassen und Ordnungen zuteilen, findet sich in der emotionell aufgeheizten, und von HOST durch Unterlassen von Schlichtungshandlungen aktive unterstützten Frontenbildung bei Rolonda zwischen den Teilnehmerkategorien GUE und AUD (Saalpublikum). An der Grenze von objektivierenden zu subjektivierenden Praktiken liegen die Verfahren, die den SprecherInnen zwar Rede abverlangen, diese aber durch kommunikative Strategien und Dynamiken in den Beteiligunsstrukturen inhaltlich bereits vorgegeben ist. Hierzu gehören u.a. Selektion von und Präferenz für bestimmte Frageformate (in der grammatischen Form des Deklarativs) und Dynamiken des Zitierens der Rede der Gäste sowie das Suggerieren, Soufflieren und Vorsprechen dessen, was das zu erkennende Subjekt erwidern muß indem ihm die Wahrheit über sein Selbst bereits fertig in den Mund gelegt wird. Zu den subjektivierenden Praktiken in Talkshows, die die Teilnehmer zum freien Reden über sich selbst bringen und diskursproduktiv wirken, zählen besonders ChatMomente in den Shows. Passagen, in denen die Gäste auch längere Redebeiträge machen ohne vorstrukturierende Fragestellungen. Die Abwesenheit von Interviewtechniken bzw. sehr offen strukturierte Frageformate geben einen Hinweis auf solche Stellen im TalkshowDiskurs. Narrative Sequenzen, die nicht von Zwischenfragen unterbrochen werden verweisen in der Interaktion zwischen den Gästen (den Alltagssubjekten) und anderen TeilnehmerInnen auf subjektivierende Momente, genauso wie die Häufung bzw. Anwesenheit von Rückmelde und Hörersignalen der Moderatorinnen denn sie sind ein Signal zum Verlängern ihres Redebeitrags, das in keiner Hinsicht strukturierend oder einschränkend wirkt. Die Analysen der Subjektpositionen und Positionierungen geben so meines Erachtens den Blick frei für zwei unterschiedliche Möglichkeiten, Diskurse mit dem Durchschnittsmenschen über seine subjektive Verfaßtheit in der Öffentlichkeit zu führen (und ein Bild von ihm in der Öffentlichkeit zu zeichnen). Es stellt sich heraus, daß die beiden TalkshowReihen unterschiedliche Präferenzen und Gewichtungen der diskursiven Korrelate subjektkonstituierender Machttechnologien aufweisen. Objektivierende Praktiken fanden sich zahlreiche in der RolondaShowreihe, viele Verfahren ausschließlich dort (Spiegelungen, derogative Untertitel, auf Kommunikationsakte ausgerichtete Dressur etc.). Der Diskurs ist auch auf der sprachlichinteraktionellen Mikroebene stark von objektiverenden Praktiken des Aussonderns, Isolierens, dem spektakulären BlickFreigebens auf Details und des inhaltlichen Vorgebens bzw. Repetition der fremden Rede (Aufoktroyieren der fremden Perspektive) geprägt. Als Objekte der analytischen und interpretierenden Rede werden sie in ihrem Subjektstatus (z.B. als eigenständige Sprecher) reduziert und mit den Regeln und Normen eines Kollektivs konfrontiert. Durch diskursive Mikropraktiken werden auf verschiedenen Ebenen Machtgefälle konstruiert, die das Talkshowsubjekt unterordnen unter die Stimmen der Autorität und des Kollektivs, die fordernd und zurechtweisend auf den einzelnen einwirken und direkten Einfluß nehmen. Konfrontative Sequenzen führen auf interpersoneller Ebene zu einem hohen Gesichtsverlust für die Gäste, die gesichtsbedrohliche Sprechhandlungen in der Regel nicht parieren können, weil HOST ihnen keine Gelegenheit gibt und der Interaktion einen "zurechtstutzenden" Grundton gibt. Durch gesichtsbedrohende Akte wie Zurechtweisung und Ermahnung wird die Distanz zu den Gästen gering gehalten, was einem umgangssprachlichen "Zunahetreten" entspricht. Zudem zeichnet sich der Diskurs durch eine extrem dramatisierende Verlaufsform aus, die eine kommunikative Katastrophe (Zusammenbruch der Interaktionsordnung), einen Dressur bzw. Disziplinierungsakt durch eine Autorität (Expertin) und die Katharsis einschließen (Reue, von HOST evozierte, nach außen gekehrte Einsichtsbekundungen und Gutheißen der "Lektion"). Der dramatische Konflikt samt Eskalationen und Konfrontationen mit den kollektiven Forderungen wird dann erst mit Hilfe von anweisenden Autoritäten gelöst. Die Ermächtigung der Autoritäten geht einher mit Objektivierungen, der Degradierung zum Objekt von fremden Blicken, fremder Rede und fremden Regeln. Allerdings auch mit der Reduzierung der Position der Moderatorin, die sich gegenüber den Experten stark zurücknimmt. Die Übernahme von Wissen ("Lernen" und Erkenntnis gewinnen) wird artikuliert als Drill und Gefügigmachen (inklusive Dankbarkeit, vgl. HOSTFrage an GUE/Kathy: Are you happy now?), und baut nicht auf Einsicht. Vorhaltungen und negative Spiegelungen sollen zur Abschreckung und Besserung dienen. Das Subjekt muß zum Nutzen der Gemeinschaft erzogen werden und sich ihren Normen unterordnen. Der SubjektEffekt dieses Diskurses ist ein Autoritäten untergeordnetes Subjekt, das bei Fehlverhalten isoliert und "an den Pranger" gestellt wird, korrekturbedürftig ist und durch Drill (nicht Einsichtsfähigkeit) an die Forderungen einer größeren Gemeinschaft anzupassen ist. Das Verhältnis zu den Autoritäten und zur Gemeinschaft ist ein stark personalisiertes und das Individuum ist gleichzeitig extrem abhängig von diesen, aber auch durch die Detaillierung und die Fokussierung auf den Einzelfall stark überhöht. Diese Entwürfe vom Subjekt lassen sich mühelos in hierarchischautoritären Kontexten wiederfinden und könnten innerhalb eines traditionellen sozio politischen "RechtsMitteLinks"Schemas möglicherweise als Bestandteil eines recht(spopulistisch)en Diskurses betrachtet werden. Die Daten aus der WinfreyReihe zeichnen sich durch insgesamt weniger objektivierende Strategien aus und weisen an manchen Stellen Spuren von subjektivierenden Verfahren auf (die Gäste kommen ausführlicher und weniger als Ausgefragte zu Wort, haben bisweilen Möglichkeiten, sich als Partner in einem informellen Gespräch zu konstituieren etc.). Mehr noch als das Vorhandensein von subjektivierenden Techniken fällt das NichtVorhandensein vieler Objektivierungsstrategien auf. D.h., eine Vereinzelung und Ausrichtung auf das Subjekt im Besonderen ist nicht auffällig ausgeprägt (sie ist vorhanden und im Fernsehen auch medienstrukturell verankert). Viel eher findet ein verallgemeinernder Diskurs statt, der das Subjekt und seine Erfahrung als Ausgangspunkt für generalisierbare Erörterungen nimmt. In den Daten gab es kaum dissentive Sequenzen, wenn es zu spontanen Frontbildungen kam, wurden diese von HOST geschlichtet, die hier untersuchten Shows weisen keine dramatisch strukturierten Formen auf jedenfalls nicht im selben Maß wie die ihrer Kollegin. Natürlich kann man im Mikrobereich sicher ebenfalls Zuspitzungen finden. Aber im Gesamtablauf ist die Show zyklisch strukturiert. Hier erscheint eine zweite Option, wie durch die Praktiken einer "Show für den Privatmenschen in seiner Alltäglichkeit" dieser medial konstituiert wird. Der einzelne wird weder auffällig häufig zum Objekt, noch wirklich frei in seiner Rede, sondern vielmehr zum Ausgangspunkt für Verallgemeinerungen gemacht. Der im Vergleich relativ weitgehende Verzicht auf Aussonderung des konkreten Falls und die Bezugnahme auf den generellen Fall hat als diskursive Korrelate Möglichkeiten der Gleichheit zwischen den Diskursteilnehmern und die Relativierung der Stimme der Autorität (der Experten). Die Übernahme von Wissen und Erkenntnis wird durch die Abhandlung der Problembereiche als denkbare Fälle und Optionen fürs Handeln der Eigenverantwortlichkeit der Subjekte anheimgestellt (ohne evozierte Affirmation und Ausstellung von Akten der Einsicht). SubjektEffekte sind: der einzelne wird als wichtiger Träger von verallgemeinerbaren Erfahrungen konstituiert, allerdings auch als einer neben vielen anderen (vgl. auch die Funktion der AUD, die die Perspektiven der Aussagen erweiteren, keine Fronten zu GUE bilden), das Verhältnis zu den anderen Diskurspositionen, v.a. zu den Autoritäten ist distanzierter, gesichtsbedrohende Sprechhandlungen sind nicht direkt an GUE gerichtet usw. Das Subjekt wird als lernfähig durch rationale Einsicht konstituiert. Analog zur Einordung in ein gesellschaftspolitisches Spektrum, könnte behauptet werden, diese Subjektkonzeptionen reflektieren Normen eines neoliberalen Diskurses der bürgerlichen Mittelschicht über das Individuum, der sich über die Besetzung der Position "egalitär" bzw. "antiautoritär" und "eigenverantwortlich" in Opposition zu "hierarchisch", "autoritär" und fremddefiniert bzw. abhängig von übergeordneten Instanzen definiert. Insofern stehen die beiden Pole der Möglichkeiten der Subjektkonzeption (und medialen Konstitution des Durchschnittsmenschen als Subjekt) in direkter Abfolge hintereinander auf dem Programm USamerikanischer Fernseh Nachmittage. Eine Entscheidung darüber, ob der immense Erfolg von Winfreys neoliberalem Diskurs, der jeden für sich allein und individuell "verantwortlich" macht, oder die Absetzung der ReiheRolonda mit ihrem autoritären und explizit hierarchisch operierenden Diskursmodus Anlaß zur Hoffnung geben sollte, muß anderen medien und sozialkritischen Untersuchungen überlassen bleiben.
Für eine erhebliche Patientenanzahl gestaltet sich bei kurativ reseziertem Primärtumor eine hepatische Metastasierung zum limitierenden Faktor für die Überlebenszeit. Aufgrund des speziellen Metastasierungsverhaltens ist das hauptsächlich die Gruppe der kolorektalen Primärtumoren, die eine hohe Inzidenz an hepatischen Filiae aufweist. Bisher profitieren nur eine sehr geringe Anzahl der Betroffenen von der Möglichkeit der operativen Resektion solitärer Läsionen. Über 70% dieser Fälle erleiden jedoch wieder intrahepatische Tumorrezidive. Die systemische oder regionale Chemotherapie konnte bisher im Vergleich zu resezierten Patienten nur geringe Verbesserungen der Überlebenszeiten bei oftmals erheblichen Einschränkung der Lebensqualität erzielen. Vor diesem Hintergrund wurde die minimal invasive Laserinduzierte Thermotherapie (LITT) entwickelt, mit der es möglich ist, perkutan gezielt Tumoren in soliden parenchymatösen Organen zu zerstören. Dabei kann das umgebende Gewebe maximal geschont und der Eingriff in lokaler Anästhesie mit einem sehr kurzem Krankenhausaufenthalt und in Kürze auch ambulant durchgeführt werden. Voraussetzung für den optimalen Erfolg eines regionalen Verfahrens ist die genaue topographischen Darstellung der erzielten Koagulationsnekrose während und nach der Intervention. Die Magnetresonanztomographie hat sich bei dieser Aufgabe als nichtinvasives und genaues Instrument zur Dokumentation der intraoperativen Temperaturausbreitung durch temperatursensitive T1gew. Sequenzen und mittels optimierter Sequenzprotokolle zur Nachkontrolle der laserinduzierten Nekrosen erwiesen. Die vorliegenden Daten für eine Gruppe von 41 Patienten aus einer frühen klinischen Phase (Phase 2) behandelt mit konventionellen Applikatorsystemen und Leistungen bis zu maximal 5,6 Watt, dokumentieren eine gute lokale Tumorkontrollrate für 3 Monate und eine noch akzeptable Remissionsrate für die 6 MonatsKontrolle. Für die Gruppe der kolorektalen Karzinome konnten mittlere Überlebenszeiten von 29 Monaten dokumentiert werden. An Nebenwirkungen traten lediglich nicht therapiebedürftige Pleuraergüsse und subkapsuläre Hämatome auf, was den patientenschonenden, minimal invasiven Charakter des Verfahrens unterstreicht. Die nach der KaplanMeierMethode berechneten kumulativen Überlebensraten von etwa 28 Monaten im Vergleich zu unbehandelten Lebermetastasen sind unter der Berücksichtigung der überwiegend palliativen Ausgangssituation der Patienten als Erfolg zu betrachten. Hier können mit weiter optimierten Applikationssystemen in der 3. Phase der klinischen Entwicklung weit höhere lokale Kontrollraten dokumentiert werden, deren Auswirkung auf die Gesamtüberlebenszeit noch untersucht werden muß. Damit wurde mit der MRgesteuerten LITT ein neues minimal invasives Therapieverfahren zur Erlangung einer lokalen Tumorkontrolle entwickelt, das in palliativer, aber auch in einzelnen Fällen in kurativer Situation eine Therapieoption für Patienten mit Lebermetastasen vor allem kolorektaler Tumoren bietet. Die gute Verträglichkeit mit der Beschränkung auf Lokalanästhesie macht auch die Behandlung von Patienten vertretbar, die durch lange Chemotherapie stark in der Lebensqualität eingeschränkt sind.
In der vorliegenden Arbeit wird die Identifizierung von Genen der Carotinoid Biosynthese (crt) aus den Coryneformen Bakterien Brevibacterium linens und Brevibacterium flavum beschrieben. Hierbei konnten sechs neue crt Gene durch funktionelle Komplementierung bestimmt werden. Außerdem wurde erstmalig die Carotinoid Biosynthese von B. flavum, darunter auch drei neue Carotinoide, beschrieben. Voraussetzung für die Klonierung der crt Gene aus B. linens war die Entwicklung eines geeigneten Komplementierungssystems. Dieses System wurde in Carotinoidmutanten von B. flavum entwickelt. So konnte eine B. linens ExpressionsBibliothek nach Passage durch mehrere E. coliStämme, unter Umgehung des starken B. flavumRestriktionssystems, in B. flavumCarotinoidmutanten auf crt Genexpression hin untersucht werden. . Durch Komplementierung der Carotinoidmutanten von B. flavum konnte das Gen der Phytoen Synthase (crtB) aus B. linens funktionell kloniert werden. Mit diesem Gen als Sonde wurde aus einer B. linensCosmid Bibliothek das gesamte crt Gencluster isoliert. Auf dem sequenzierten DNAFragment von B. linens befanden sich 14 offene Leseraster mit Ähnlichkeiten zu Sequenzen aus Datenbanken. Durch Sequenzähnlichkeiten zu bekannten Genen konnte die Gene einer GGPP Synthase (crtE), einer Phytoen Synthase (crtB) und einer Phytoen Desaturase (crtI) bestimmt werden. Außerdem wurden erstmalig die Gene einer IPP Isomerase und einer DNAPhotolyase in einem crt Gencluster identifiziert. Durch heterologe Expression in B. flavum konnte das neue Gen einer bCarotin Desaturase (crtU) funktionell nachgewiesen werden. Dieses Gen kodiert für ein Enzym, das bCarotin in das aromatische Carotin Isorenieraten umsetzt. Ebenfalls durch heterologe Expression in B. flavum wurden zwei neue Gene (crtYc und crtYd) gefunden, deren Genprodukte gemeinsam die Zyklisierung von Lycopin zu bCarotin katalysieren. Die errechnete Molmasse dieser beiden Lycopin Zyklasen ist mit 12,5 und 13,9 kDa ungewöhnlich klein. Die zwei Lycopin Zyklasegene aus B. linens kodieren für eine neue Klasse von Lycopin Zyklasen. Es bestehen keine Sequenzähnlichkeiten dieser neuen Gene zu bisher bekannten Lycopin Zyklasegenen oder zu anderen Genen bekannter Funktion. Durch die partielle Deletion einer cDNA mit Lycopin Zyklase und Phytoen Synthaseaktivität (crtYB) aus dem Pilz Xanthophyllomyces dendrorhous konnte gezeigt werden, daß die Zentren der beiden Aktivitäten in unterschiedlichen Regionen des gebildeten Polypeptids sitzen. Die Phytoen Synthaseaktivität des Genproduktes geht auf einen Bereich des Polypeptids zurück, der Sequenzähnlichkeiten zu Phytoen Synthasen anderer Organismen aufweist. Das Zentrum der Lycopin Zyklaseaktivität liegt in dem Nterminalen Bereich des Polypeptids, der interessanterweise Sequenzähnlichkeiten zu den beiden Lycopin Zyklasen aus B. linens aufweist. Dieses Fusionsgen crtYB ist das erste bekannte Gen einer pilzlichen Lycopin Zyklase. Die Entwicklung der pilzlichen crtYB Fusionsgene aus crtB und Lycopin Zyklasegenen des in B. linens gefundenen Typs wird diskutiert. Die Hauptcarotinoide von B. flavum wurden als die C 50 Carotinoide Decaprenoxanthin, Decaprenoxanthin Monoglucosid und Decaprenoxanthin Diglucosid bestimmt. Bei der Analyse von B. flavumPigmentmutanten wurden außerdem die neuen Carotinoide Nonapren [2(3Methyl2butenyl)e, ycarotin], Flavuxanthin [2,2'Bis(4hydroxy3 methyl2butenyl)y, ycarotin] und Nonaflavuxanthin [2(4Hydroxy3methyl2 butenyl)y, ycarotin] als Intermediate identifiziert. Basierend auf den nachgewiesenen Carotinoiden konnte der vermutliche C 50 Carotinoid Biosyntheseweg für B. flavum vorgeschlagen werden. Durch Sequenzanalyse von B. flavumTransposonmutanten konnten erstmalig crt Gene der C 50 Carotinoid Biosynthese isoliert werden. Auf dem crt Gencluster von B. flavum konnten die Gene crtE, crtB und crtI aufgrund von Sequenzähnlichkeiten zu bekannten Genen bestimmt werden. Heterologe Expression in E. coli und Geninaktivierung durch homologe Rekombination in B. flavum zeigten, daß die Produkte von drei weiteren Genen ausreichen, um die C 50 Carotinoide von B. flavum zu bilden. Das Produkt eines neuen Lycopin Elongasegens (crtEb) verlängert Lycopin an Position C2 und C2' um jeweils eine C 5 Isopreneinheit und bildet ein azyklisches C 50 Carotinoid. Dieses wird von den Produkten der neuen C 50 Zyklasegene crtYe und crtYf zu einem zyklischen C 50 Carotinoid umgesetzt. Die Ergebnisse zeigen, daß entgegen früherer Vorstellungen, die Addition einer Isopreneinheit und die Zyklisierung bei der Bildung von zyklischen C 50 Carotinoiden zwei getrennte Schritte sind.
In der vorliegenden Arbeit untersuchen wir die Verteilung der Nullstellen Dirichletscher L-Reihen auf oder in der Nähe der kritischen Geraden. Diese Funktionen und ihre Nullstellen stehen im Mittelpunkt des Interesses bei einer Vielzahl klassischer zahlentheoretischer Fragestellungen; beispielsweise besagt die Verallgemeinerte Riemannsche Vermutung, daß sämtliche Nullstellen dieser Funktionen auf der kritischen Geraden liegen. Unsere Ergebnisse gehen unter anderem über die besten bislang bekannten Abschätzungen - für den Anteil der Nullstellen der Dirichletschen L-Reihen, die auf der kritischen Geraden liegen, - für den Anteil einfacher beziehungsweise m-facher Nullstellen sowie - über Nullstellen in der Nähe der kritischen Geraden hinaus. Wir setzen hiermit Arbeiten von A. Selberg, N. Levinson, J. B. Conrey und anderen fort und verallgemeinern Ergebnisse, die für die Riemannsche #-Funktion gültig sind, auf alle Dirichletschen LReihen beziehungsweise verbessern bisherige Resultate. Nach einer ausführlicheren Darstellung der Hintergründe zeigen wir einen Satz über Mittelwerte "geglätteter" L-Reihen, d.h. mit einem geeigneten Dirichlet-Polynom multiplizierte L-Reihen. Solche Mittelwertsätze stellen ein wesentliches Hilfsmittel zur Untersuchung der Nullstellenverteilung dar. Die in unserem Hauptsatz gegebene asymptotische Darstellung dieses Mittelwertes können wir dann nutzen, um die genannten Ergebnisse herzuleiten.
Die chilenische Geschichte ist seit der Unabhängigkeit von Spanien von einer für lateinamerikanische Verhältnisse ungewöhnlichen Dialogtradition gekennzeichnet. Die chilenischen Lehrer und ihre Organisationen spielten in dieser Dialogtradition eine besondere Rolle. Sie trugen zur Begründung dieser Tradition bei, waren ein bewußter Teil der Mittelschicht, der die Rolle der gesellschaftlichen Vermittlung zwischen den widerstreitenden Interessen des agroindustriellen Bürgertums und der Arbeiterbewegung zukam, und sie vertraten diesen Historischen Kompromiß in Schulen und Bildungszentren. Die chilenische Verfassung von 1925 ist ein Beispiel für diese Dialogtradition. Sie ist das Ergebnis einer gelungenen Konsenssuche und etabliert diesen Konsens für fast ein halbes Jahrhundert. Die chilenische Lehrerorganisation hat eine wichtige Rolle bei der Formulierung dieser Verfassung gespielt. Durch die Verfassung wurde es möglich, daß viele gremialistische, gewerkschaftliche und kooperative Gruppierungen sich parteiförmig organisierten und ihre Partialinteressen gesamtgesellschaftlich einbrachten. Die Verfassung von 1925 wies dem Staat die Rolle zu, soziale Sicherheiten zu garantieren und die Entwicklung des Landes voranzutreiben. Besonders die allgemeine Schulpflicht gehörte zu diesen Neuerungen. Den Lehrern und ihren Organisationen kam durch ihre Beteiligung an der Verfassung und die Verbreiterung des Bildungswesens die Rolle eines gesellschaftlichen Subjektes zu. Sie waren im Sinne Gramscis "organische Intellektuelle". Von 1925 bis zum Militärputsch von 1973 prägte die Mittelklasse die chilenische Gesellschaft. Die "Kultur der Mittelklasse" (G. Vial) wurde zur vorherrschenden Kultur. Die Lehrer waren in dieser Zeit Protagonisten der gesellschaftlichen Entwicklung und wurden zu gesellschaftlichen Vermittlern mit "anerkannten Fähigkeiten", 90 wenn es um die großen Erziehungsprobleme Chiles ging. Eine wichtige Etappe in diesem Prozeß war die Erziehungsreform von 1928. Die chilenischen Lehrer waren auf diese Aufgabe dadurch vorbereitet, daß sie den unterschiedlichsten philosophischen und politischen Strömungen (Agnostiker, Christen, Freimaurer und Marxisten) angehörten. 90 Episcopado chileno, Reforma educacional, Julio, 1981,S. 371 Seit der zweiten Hälfte der zwanzigsten Jahrhunderts gewann die marxistische Linke vor allem die Sozialisten und Kommunisten, die seit den zwanziger Jahren im Parlament vertreten waren unter den chilenischen Lehrern an Einfluß. Der Einfluß der bis dahin vorherrschenden Radikalen Partei schwand, und an deren Stelle trat die christdemokratische Partei. In dieser Situation entstand die Lehrergewerkschaft SUTE. Die SUTE setzte sich für eine neue Erziehungsreform ein, in deren Zentrum das Konzept einer "Nationalen Einheitsschule" (Escuela Nacionál Unificada, ENU) stand. Neben einer besseren Vermittlung von Theorie und Praxis sollte diese Schule den "neuen Menschen" in einer sozialistischen Gesellschaft schaffen. Die Kampagne für die ENU traf auf den geeinten Widerstand der katholischen Kirche und der rechten Parteien und Organisationen Chiles. Der sozialistische Präsident Allende, der in der Tradition konsensualer Vermittlung stand, gab unter diesem Druck das Reformprojekt auf. Der Militärputsch von 1973 brach mit der chilenische Dialogtradition. Die Lehrer verloren unter Pinochet fast alles, was sie bis dahin erreicht hatten, vor allem aber die Möglichkeit, an Entscheidungen in Fragen der Erziehungspolitik teilzunehmen. Namhafte Wissenschaftler und viele qualifizierte Lehrer wurden aus politischen Gründen entlassen, wenn nicht gar verhaftet oder ins Exil gezwungen. Die Schulen wurden privatisiert oder in kommunale Trägerschaft überführt. Die pädagogischen Hochschulen wurden in die Universitäten integriert, ein Schritt, der auf gespaltene Ressonanz stieß. Ein Teil der Lehrer sah darin eine Aufwertung des Erzieherberufs, andere hingegen die Zerstörung des traditionellen Ausbildungswesens der Lehrerschaft. Die Militärregierung löste den SUTE auf und ersetze ihn durch das Colegio de Profesores, das auf der Seite der Militärs stand. Ein von der Regierung erlassenes Anstellungsstatut verschlechterte mittelfristig die Situation der Lehrer. Sie waren durch diesen Statut und durch die Privatisierung und Kommunalisierung nun nicht mehr dem Erziehungsministerium, sondern oft nichtpädagogischen Chefs wie Bürgermeistern und privaten Schulträgern und unternehmern zugeordnet, die sich oft wie "kleine Diktatoren" (Schulak) benahmen. Inmitten einer Periode völliger gesellschaftlicher Immobilität, die nach dem gewaltsamen Putsch eingetreten war, bildeten sich erste Oppositionsgruppen innerhalb des Colegio de Profesores und, alternativ dazu, die Lehrergewerkschaft AGECH (Asociación Gremial de Educadores de Chile). Die Wahlen zum Colegio de Profesores 1985 und die Opposition der AGECH spielten eine wesentliche Rolle bei der breiten Opposition gegen das Militärregime, die 1983 begann. Die chilenischen Lehrer und ihre Organisationen waren neben der Menschenrechtsbewegung diejenige Gruppierung, die den Minderheitenkonsens der Pinochetregierung, der aus dem negativen Konsens der militärischen Elite hervorgegangenen war, in einer Weise herausforderte, die die Streitkräfte zwang, in eine Dialogpolitik einzutreten, die schließlich zum Übergang zur Demokratie (transición) führte.
En el presente trabajo he investigado acerca de los factores que determinaron el quiebre del Compromiso Histórico en el ámbito educacional en Chile y las consecuencias que dicho quiebre trajo en la desestabilización del régimen militar al perder el apoyo de los sectores de la clase media y dentro de éstos principalmente del magisterio organizado. Primeramente debo señalar, al llegar al final de esta investigación, que el régimen militar en Chile aparece en el marco de un situación de excepción la cual está facilitada paradojalmente por el alto grado de politización de la sociedad chilena pero al mismo tiempo por la pérdida de la capacidad de diálogo entre los actores que se enfrentan en la arena política. Como lo he señalado en el transcurso de mi investigación, Chile fue un país que se caracterizó tempranamente por una tradición dialoguista; Esto sirvió de base para que, en un conflictivo periodo de crisis institucional se aprobara una Constitución (1925) en la cual los consensos jugaron un papel importante. En esta Constitución, tanto los grupos emergentes de la clase media, así como la burguesía agrarioindustral y los trabajadores organizados quedan debidamente representados. El Estado no cambia radicalmente su perfil pero quienes lo administran pasarán a jugar un rol significativo dentro de este compromiso. Los maestros, hacia la época organizados en un gremio con carácter sindical(AGP), se incorporan con gran voluntad a este proceso y actúan como intermediarios entre los grupos conservadores y liberales en decadencia y los nuevos actores sociales emergentes: la clase media y los obreros organizados. Esta forma de compromiso duró aproximadamente 50 años en Chile y permitió, entre otras cosas, la democratización del país, el desarrollo de las organizaciones de la sociedad civil así como el mejoramiento en las condiciones materiales de vida de la población. A todo ello se agregaba la educación gratuita y una serie de derechos cívicos entre los que sobresalen la libertad de opinión, ampliación del derecho a voto y la libertad de asociación. El periodo que media entre 1925 y 1973 está fuertemente influído de los preceptos y comportamientos culturales de la clase media. A partir de 1950 se fortalecen en la sociedad los partidos políticos de orientación marxista, los cuales junto a la aparición del Partido Demócratacristiano van desplazando al Partido Radical del protagonismo en la administración del Estado. Hacia los años 60 los partidos socialista y comunista se encuentran unidos en una coalición y mantienen una fuerte influencia en el movimiento sindical obrero y de profesores. Este último, durante dicho periodo crece, se desarrolla y participa activamente de las negociaciones sobre cambios educacionales. Aunque obtiene del Estado una serie de garantías sociales, se mantiene en el profesorado un endémico disconformismo por los bajos salarios que percibían. En este proceso de unificación y crecimiento que menciono el gremio se vio fuertemente tironeado por los partidos políticos produciéndose una notoria politización dentro de sus filas, especialmente en los estamentos directivos altos e intermedios. La creación del Sute a comienzo de los años 70 y la adscripción de una gran parte del gremio a los postulados de la Unida Popular, crea fricciones al interior del magisterio y se producen ásperas discusiones entre sus miembros por la implementación de una reforma educacional la que, a decir de los opositores, pretendía cambiar la forma y los contenidos de la educación chilena. El tipo de escuela propuesto por los reformistas encontraba serios desertores no solamente dentro del magisterio sino también dentro del resto de la sociedad civil. Preciso decir que la población chilena, producto de los cambios sociales y económicos operados en el país se encontraba bastante polarizada, razón por la cual la polémica educacional quedó en parte sesgada por la fricción entre partidarios y oponentes del gobierno de Salvador Allende. El presidente Allende al constatar que el proyecto de reforma educacional no lograba reunir los consensos necesarios en la sociedad civil, decidió retirarlo a la espera de mejores condiciones de diálogo con la otra parte de la población. En el año 1973 este ya entorpecido diálogo se rompe. Las Fuerzas Armadas irrumpen al poder para resolver la crisis pero no sólo se encargaron de destituir al presidente supuestamente inconstitucional sino que además prescindieron de toda constitucionalidad para hacerlo. Los militares desmantelan practicamente toda la estructura educativa existente hasta la época. El gremio de maestros, SUTE, es disuelto y comienza a operar una fuerte censura en todos los mandos de la administración pública. Muchos de los opositores al nuevo régimen deben abandonar su servicio en escuelas y universidades y otros incluso son encarcelados o bien obligados a salir del país. Por medio de una serie de medidas de carácter coercitivas y económicas el régimen militar impone sus proyectos educacionales en un plazo de 7 años pero por ello debe pagar un precio muy alto. Una gran parte del magisterio y un sector representativo de la clase media abandonan la postura neutral o de adehsión que tenían hacia el régimen y se van nucleando en un movimiento opositor contestatario que va a tener intrincadas consecuencias en la capacidad de gobernabilidad del régimen. En este proceso más de confrontación que de negociación surgen diferentes instancias gremiales de los maestros entre las que destacan una coordinación del magisterio, un club del magisterio, una asociación gremial de educadores y finalmente, a través de la presión gremial de los maestros opositores logran éstos ultimos, arrebatar, en elecciones libres, la conducción del Colegio de Profesores. Finalmente debo decir que el gremio de maestros no derrotó ni fue el sector determinante en la salida del régimen militar como algunas personas han pretendido concluir de mi tesis. Lo que sí afirmo es que la elección del Colegio de Profesores abrió las compuertas de una movilización social que ni el régimen, ni los mismos maestros se habían imaginado. El profesorado chileno con gran influencia cultural en la sociedad y víctima al mismo tiempo de una política oficialista de subvaloración y desprecio, terminó por desafiar al régimen militar enfrentándolo y derrotándolo primero en elecciones gremiales a los representantes del régimen y luego mostrando una vía de escape al resto de un país país atrapado y disminuído por el autoritarismo.
In der vorliegenden Arbeit wurde ein durch Zellschrumpfung aktivierter nichtselektiver Kationenkanal, der in der M1 Sammelrohrzellinie der Maus bereits früher beobachtet worden war [Volk et al., 1995], hinsichtlich seiner Selektivität, seines Inhibitorspektrums und seines Aktivierungsmechanismus mittels der Patch ClampTechnik näher charakterisiert, und es wurde geprüft, ob dieser oder ein ähnlicher Kanal auch von anderen Zellinien exprimiert wird, wobei außer epithelialen Zellinien (HT 29 , BSC1) auch solche aus Muskel (A10) und Ner vengewebe (Neuro2a) untersucht wurden. Zellschrumpfung in symmetrischer NaClLösung mit Zusatz von 100 mM Saccharose im Bad stimulierte einen von Kationen getragenen Einwärtsstrom. Während der initialen Phase der Aktivierung durch extrazelluläre Hyperosmolarität konnten Schaltvorgänge von Einzelka nälen beobachtet werden. Die Einzelkanalleitfähigkeit in den verschiedenen Zellinien betrug 15 bis 27 pS. Der Strom stieg nach wenigen Minuten um das 30 bis 60fache an. Austausch des extrazellulären Natriums durch das schlecht permeierende NMDG führte zum kompletten Sistieren des Einwärtsstroms. Die Aktivierung des nichtselektiven Kationenstroms war unab hängig von der absoluten Osmolarität der Badlösung. Sie wurde ausschließlich durch osmo tisch bedingte Volumenabnahme (Schrumpfung) der Zellen hervorgerufen, wobei die Zell schrumpfung der Aktivierung des Stroms geringgradig vorauseilte. Die Aktivierung durch Zellschrumpfung war reversibel und konnte mit dem gleichen Zeitverlauf und mit der glei chen Leitfähigkeitszunahme auch zweimal hintereinander ausgelöst werden. Die stimulierte Kationenleitfähigkeit war hochselektiv für Kationen über Anionen, aber nichtselektiv für die monovalenten Kationen NH 4 , Natrium, Kalium und Lithium (Leitfähig keitssequenz NH 4 > Na > K > Li ). Für divalente Kationen wie Kalzium und Barium war keine Leitfähigkeit meßbar. Flufenaminsäure (100 µM) hemmte den stimulierten Einwärts strom um mehr als 80 %, Diphenylamin2Carboxylsäure (DPC) und sein Derivat Dichlor DPC (DCDPC) hatten einen etwas geringeren Hemmeffekt. Noch schwächer hemmte LOE 908. Amilorid, Quecksilber und Bumetanid hatten praktisch keine Hemmwirkung auf den stimulierten Einwärtsstrom. Maitotoxin, ein Aktivator mancher nichtselektiver Kationenka näle, hatte unter isoomotischen Bedingungen keine stimulatorische Wirkung auf den Strom. Im Gegensatz zum Ca 2 aktivierten nichtselektiven Kationenkanal, der in exzidierten Membranflecken beobachtet wird, war die Aktivierung des schrumpfungsinduzierten nicht selektiven Kationenkanals unabhängig von der zytoplasmatischen Ca 2 Konzentration. Das Ausmaß der Stimulation war allerdings vermindert, wenn die Pipettenlösung hohe Konzen trationen von Kalziumchelatoren (10 mM EGTA oder 10 mM BAPTA) enthielt. Dagegen hemmte Magnesiumentzug die Antwort auf Zellschrumpfung fast vollständig. ATP in Kon zentrationen bis 10 mM in der Pipettenlösung konnte die Aktivierung des Einwärtsstroms nicht verhindern, nur reduzieren. Dagegen unterdrückte ATPVerarmung der Zellen (durch Inkubation mit Rotenon und 2Deoxyglukose) die Antwort auf Zellschrumpfung völlig. Auch durch Zusatz von 1 mM ATP zur Pipettenlösung konnte die Antwort in ATPverarmten Zel len nicht wiedergewonnen werden, obwohl die Zellen nach Auswaschen der Stoffwechsel gifte wieder normal reagierten. Die Proteinkinasehemmstoffe Staurosporin und Calphostin C (beide in der Konzentration von 1 µM) konnten die Antwort unterdrücken. Einige auf das Zytoskelett wirksame Substanzen (Cytochalasin D und Taxol) hatten ebenfalls hemmende Wirkungen. Die Befunde der vorliegenden Arbeit zeigen, daß der schrumpfungsaktivierte nichtselekti ve Kationenkanal offenbar ubiquitär exprimiert wird. Der Aktivierungsmechanismus ist kom plex und abhängig von intrazellulärem ATP und Magnesium. Vermutlich sind Proteinkinasen und Zytoskelettelemente an der Kanalaktivierung beteiligt. Der Kanal dürfte im Rahmen der Zellvolumenregulation von Bedeutung sein und spielt möglicherweise eine Rolle für Zellpro liferation und Apoptose.
Im 18. und 19. Jahrhundert entstanden, durch die Erkenntnisse, die in Anatomie, Physiologie, Bakteriologie und Zellularpathologie gewonnen wurden, im Wesentlichen die Grundlagen der modernen Medizin. Darauf aufbauend kam es rasch zu einem enormen Wissenszuwachs aller medizinischen Teilbereiche, ermöglicht durch eine naturwissenschaftliche Methodik sowie die technische Revolution auf allen Gebieten des ärztlichen Diagnoseinstrumentariums. Hieraus resultierte ab Mitte des 19. Jahrhunderts einerseits die Abspaltung von Spezialfächern und deren eigenständige Weiterentwicklung, andererseits zeigte sich jedoch, daß wesentliche Fortschritte nur in Zusammenarbeit mit anderen Fachdisziplinen zu erreichen waren (Münchow 1984 S.670) Für die Augenheilkunde, die bis zum Beginn des 19. Jahrhunderts noch der Chirurgie unterstand, begann Mitte des 19. Jahrhunderts die Reformzeit (Hirschberg 1918 S.324). Es erfolgte die schrittweise Loslösung der Ophthalmologie von den beengenden Fesseln der Chirurgie. Hierbei übernahm die Wiener Schule eine Vorreiterrolle. Bereits 1812 wurde in Wien die Augenheilkunde von der Chirurgie getrennt und Georg Josef Beer (17631821), der wegen seines operativen Könnens Weltruhm erlangt hatte, zum außerordentlichen Professor für Augenheilkunde ernannt. 1818 erhielt er das Ordinariat. 1820 wurde in Prag der erste Lehrstuhl für Ophthalmologie eingerichtet. Von hier kam auch Ferdinand von Arlt (18121887), der 18561883 Leiter der Wiener Augenklinik war. Aus seiner Schule gingen viele bekannte Ophthalmologen hervor, unter anderem Albrecht von Graefe, der später eine zentrale Rolle in der Entwicklung der deutschen Augenheilkunde einnahm. In England, Frankreich und Deutschland wurde die Augenheilkunde erst in der zweiten Hälfte des 19. Jahrhunderts als eigenständiges Fach gelehrt. LouisAuguste Desmarres (18101882) gründete in Paris 1842 eine private Augenklinik und hatte den Mut sich ganz der Ophthalmologie zu widmen. 1 Sein Buch: "Traité théorique et pratique des maladies des yeux" trug wesentlich zur Loslösung der Augenheilkunde von der Chirurgie bei. Desmarres war ein hervorragender Operateur. Seinem praktischen Sinn verdanken wir eine Reihe ophthalmologischer Instrumente wie beispielsweise den Desmarreschen Lidhaken, der heute noch gebraucht wird (Rintelen 1961 S.401). In London betrieb William Bowman (18161892) intensive histologische Studien und beschrieb unter anderem die nach ihm benannte Glomerulumkapsel der Niere. Besonders befaßte er sich mit der Histologie des Auges. 1847 beschreibt er die Lamina elastica anterior der Hornhaut, die Bowmansche Membran (Rintelen 1961 S.402). Von Graefe lernte Desmarres während seines Studienaufenthaltes in Paris kennen und hospitierte in dessen Privataugenklinik (Münchow 1984 S.596). Der Utrechter Augenarzt und Physiologe Franz Cornelius Donders (18181889), der in engem Kontakt mit Albrecht v. Graefe stand, beschäftigte sich eingehend mit den Anomalien der Refraktion und Akkomodation und hat sich vornehmlich um die Einfühung prismatischer und cylindrischer Brillen verdient gemacht. 1863 stellte er das erste Tonometer vor. Er veranlaßte die Augenärzte sich selbst mit der Brillenverordnung zu befassen und sie nicht länger herumreisenden Händlern zu überlassen (Sasse 1974 S.46). Die deutsche Augenheilkunde rückt 1850 mit dem Königsberger Physiologen Hermann von Helmholtz und dem Berliner Augenarzt Albrecht von Graefe in den Vordergrund. Von Helmholtz (18211894) verdankt die Medizin die Erfindung des 1850 vorgestellten Augenspiegels (Hirschberg 1918 S.73). Jetzt bot sich die Gelegenheit, Licht auf die Erkrankungen der Retina zu werfen und somit Wesentliches zur Selbständigkeit und Geltung der jungen aufstrebenden Augenheilkunde beizutragen. Andererseits führte die Weiterentwicklung der Untersuchungstechniken zu einer Annäherung an andere Fachdisziplinen. Beispielsweise wurde durch die Erkenntnis, daß typische Augenhintergrundveränderungen bei bestimmten Stoffwechsel oder Organerkrankungen zu sehen waren, eine Brücke zur Inneren Medizin geschlagen (Bader 1933 S.70). Aufgrund des enormen Wissenszuwachses auch in anderen Spezialgebieten entwickelte sich eine tiefgreifende Beziehung der einzelnen Disziplinen untereinander. Albrecht von Graefe (18281870), dessen Vater Carl Ferdinand von Graefe Professor für Chirurgie und Augenheilkunde an der Universität Berlin war, übernahm die zentrale Rolle im Ausbau der modernen Augenheilkunde in Deutschland. Nach dem Medizinstudium in Berlin folgten Reisen nach Prag, Wien, Paris und London, wobei er Einblick in die jüngsten Entwicklungen des neuen Augenfaches nehmen konnte. 1851 ließ er sich im Alter von 22 Jahren in Berlin nieder und richtete eine kleine Privataugenklinik mit zwei Zimmern ein (Münchow 1984 S.596). 1851 bekam er von Hermann von Helmholtz eines der ersten Exemplare des Augenspiegels, mit dessen Hilfe er maßgebliche Erkenntnisse der Krankheiten des Augenhintergrundes gewonnen hat. Nachfolgende Zusammenstellung der Diagnosen aus den ersten beiden Jahrzehnten nach Erfindung des Augenspiegels, gibt einen Hinweis auf die Bedeutung von Albrecht von Graefe, seinen Freunden und Schülern.
Die Zahl der jährlich in der Bundesrepublik vorgenommenen Schwangerschaftsabbrüche wird auf weit über 250.000 geschätzt. Auf drei Lebendgeburten kommt somit ein Abbruch. Mit Hilfe eines Fragebogens und ergänzender Daten aus der Patientenkartei werden im Zeitraum vom 08.09.1994 bis 12.04.1996 103 Patientinnen im Alter von 16 bis 45 Jahren befragt, die eine Allgemeinarztpraxis in Südhessen zu einem Schwangerschaftskonfliktberatungsgespräch aufsuchen. Über 90 % der Frauen wohnen weniger als 20 km von der Praxis entfernt. Der Anteil der Verheirateten, Ausländer und Berufstätigen beträgt jeweils ca. 50 %. Über 80 % haben höchstens 2 Kinder. 64 % der Frauen haben zuvor noch keinen Abbruch durchführen lassen. Die Beratungsgespräche finden zu 69 % fünf bis acht Wochen nach der letzten Regelblutung statt. Knapp 60 % der Patientinnen führen keine sichere Verhütung durch. 57 % der Gründe, die zum Abbruch veranlaßten, waren soziale Notstände, Überforderung der alleinstehenden oder sich nicht reif genug fühlenden Mutter oder berufliche Gründe. Lediglich einer Patientin wurde im Falle des Austragens des Kindes Unterstützung durch ihr soziales Umfeld zugesagt. Nur 24 % sahen ihre finanzielle Situation, 37,5 % ihre Wohnverhältnisse als ausreichend an. In über 52 % der Fälle entstammt das Kind einer krisenhaften Partnerschaft. 17 % der Partner sind arbeitslos, 10 % befinden sich noch in der Ausbildung. Weniger als 13 % der Schwangeren werden zur Beratung von ihrem Partner begleitet. Außer bei sechs medizinisch indizierten Abbrüchen liegt bei fast allen Fällen eine komplexe, multifaktoriell bedingte, soziale Problematik oder eine soziale Notsituation vor. Entgegen den Inhalten der öffentlichen Diskussion, die meist auf juristischer Ebene geführt wird, befindet sich die Mehrzahl der Ratsuchenden in einer ambivalenten Konflikt und/oder Notsituation. Bezüglich der Konfliktsituation sollte der ungewollt Schwangeren geholfen werden, den zugrundeliegenden Konflikt selbst zu erkennen, um eine von ihr selbst verantwortbare und tragbare Konfliktlösung finden zu können. In sozialen Notsituationen sehen ungewollt Schwangere keine Alternative zum Schwangerschaftsabbruch. Staatlich zugesicherte Hilfen auch wenn sie durch Hilfeleistungen des sozialen Umfeldes ergänzt werden stehen in einem deutlichen Mißverhältnis zu den Bedürfnissen der Schwangeren. Ist die junge Mutter alleinstehend, so ist sie trotz staatlicher Zuwendungen nur sehr eingeschränkt in der Lage, für ihren und des Kindes Lebensunterhalt zu sorgen. In einer Partnerschaft oder Familie bringt die Geburt eines Kindes häufig den Verdienstausfall der Mutter mit sich, was die soziale Situation der Betroffenen erschwert. Um erweiterte Problemlösungsansätze erarbeiten zu können, wäre eine öffentliche Diskussion erforderlich. Sie müßte zum einen die Prävention (Sexualpädagogik, Antikonzeptionsaufklärung) fördern und zum anderen die realen Bedürfnisse ungewollt Schwangerer in Konfliktsituationen berücksichtigen, um ihre soziale Sicherheit und Integration in die Gesellschaft zu gewährleisten.
Meloxicam ist ein neues Antirheumatikum aus der Reihe der Oxicame. Es hemmt nicht nur die rheumatischen Entzündungssymptome, sondern es wirkt zusätzlich der Knochen und Knorpeldestruktion entgegen. Meloxicam zeigt die bisher größte Hemmwirkung auf die Prostaglandinsynthese. Durch die stärkere Hemmung der Cyclooxygenase 2 sind die gastralen Nebenwirkungen deutlich geringer im Vergleich zu den bisher etablierten nichtsteroidalen Antirheumatika. Meloxicam besitzt eine Halbwertszeit von etwa 20 Stunden. Die Metaboliten werden jeweils zur Hälfte über Urin und Fäces ausgeschieden. Diese Studie beschreibt die Pharmakokinetik von Meloxicam bei einmaliger Dosierung von 15 mg an 12 Patienten mit terminaler Niereninsuffizienz im Vergleich zu 12 gesunden Probanden, welche in Alter, Größe und Geschlecht den Patienten entsprachen. Die nüchternen Patienten bekamen am Tag nach der Dialyse morgens eine Kapsel Meloxicam. Über zwei Tage erfolgten regelmäßige Blutentnahmen zur Bestimmung der Plasmakonzentrationen. Zusätzlich erfolgte eine Entnahme nach der nächsten Dialyse zur Kontrolle der Dialysierbarkeit von Meloxicam. Die Plasmakonzentrationen wurden mittels eines spezifischen und validierten HPLCAssays bestimmt. Die Plasmakonzentrationen waren bei den terminal niereninsuffizienten Patienten signifikant geringer ( 14,6 vs. 39,1 µg . h/ml ). Auch die mittlere EliminationsHalbwertszeit war in dieser Gruppe etwas geringer ( 17,9 h vs. 26,1 h ). Die freien Meloxicamkonzentrationen waren dagegen deutlich erhöht im Vergleich zu den gesunden Probanden ( 0,895 % vs. m 0.28 % / w 0,30 % ). Dies drückt sich auch in der mittleren Gesamtclearance aus, welche bei den niereninsuffizienten Patienten signifikant höher war ( 18,9 vs. 7,09 ml/min. ). Meloxicam wird über einen Metabolismus eliminiert, der vermutlich von der freien Plasmakonzentration abhängig ist. Die maximale freie Plasmakonzentration Cmax ist bei den niereninsuffizienten Patienten signifikant höher ( 0,0050 µg/ml vs 0,0026 µg/ml ), während die freie Konzentration AUC 0¥ bei beiden Gruppen nahezu gleich hoch ist ( 0,13 vs 0,11 µg . h/ml ). Patienten mit terminaler Niereninsuffizienz zeigen signifikant geringere Meloxicam Plasmakonzentrationen als die gesunden Vergleichsprobanden, die Konzentration freien Meloxicams, welche das entscheidende Kriterium für Wirkungen und Nebenwirkungen der Substanz darstellt, ist dagegen höher. Daraus folgt, daß Meloxicam bei Patienten mit terminaler Niereninsuffizienz geringer als bei nierengesunden Patienten dosiert werden sollte. Eine Dialysierbarkeit von Meloxicam konnte nicht festgestellt werden. Meloxicam wurde von Patienten und Probanden gut vertragen.
Bei weltweit steigender Inzidenz von Krebserkrankungen in Verbindung mit den beträchtlichen Kosten für die Therapie und limitierten finanziellen Ressourcen ist eine wirtschaftlich sinnvolle Verteilung der Geldmittel die erstrebenswerteste Strategie um für ein Maximum an Patienten eine den Umständen entsprechend maximal wirksame Therapieform zu ermöglichen. Zur Beurteilung der Kostenentstehung und verteilung bei Krebstherapien wurde eine retrospektive Analyse hinsichtlich der Dauer der verschiedenen Abschnitte der Therapie bei 30 Patienten (13 Frauen, 17 Männer) durchgeführt und die Kosten der unterschiedlichen Behandlungsabschnitte betrachtet. Am Beginn stand dabei die Frage nach der Definition der Start und Endpunkte der einzelnen zeitlichen Intervalle und am Schluß die Ermittlung der Kosten pro Zeiteinheit, um Vergleiche der einzelnen Therapieintervalle auf ökonomischer Basis zu ermöglichen. Dabei ergab sich schon für die relativ kleine Stichprobe mit verschiedensten Anamnesen und Therapiezeiten ein verlängertes kuratives Behandlungsintervall im Gegensatz zu einer im Vergleich kürzeren palliativen Behandlungsdauer. Dabei konnte gezeigt werden, daß die Kosten pro Behandlungstag in der Regel für die kurative Behandlung geringer ausfielen als für die palliative, wobei sich der stationäre Aufenthalt in jedem Fall als maßgeblicher Kostenfaktor herausstellte. Generell scheinen die Ergebnisse darauf hinzudeuten, daß, während sich die kurativen Kosten in gewissen Grenzen prognostizieren lassen, dies bei den palliativen Kosten so nicht vorhersagbar ist. Aufgrund der Qualität der retrospektiv gewonnenen Daten und ihrer eingeschränkten Übertragbarkeit sollte die Wertigkeit dieser Aussage jedoch auch mit der nötigen Kritik betrachtet werden.
Defluran ist ein volatiles Inhalationsästhetikum aus der Gruppe der halogenierten Methyl-Äthyl-Äther. Eines seiner Nebenwirkungen ist die Verstärkung eines kompetitiven neuromuskulären Blocks. Die vorliegende Dissertation untersucht den Einfluss von Desfluran auf die Wirkstärke der nichtdepolarisierenden Muskelrelaxan zien Vecuronium, Atracurium und Pancuronium. Patienten der ASA-Klassifikation I und II wurden randomisiert in fünf Untersuchungsgruppen aufgeteilt. Die Wirkstärke-Untersuchungen der verschiedenen Muskelrelaxanzien wurden jeweils unter Desfluran-Narkose und als Kontrollgruppe unter modifizierter Neuroleptanästhesie durchgeführt. Die Messung der neuromuskulären Funktion wurde mechanographisch durchgeführt. Mit Hilfe der gefundenen kumulativen Effekte und der gegebenen kumulativen Dosen wurden für jeden Patienten durch semilogarithmische Regressionsanalysen eine kumulative Dosis-Wirkungskurve berechnet und individuelle 50-%- bzw. 95-%- Blockadedosen (ED50, ED95) ermittelt. Die resultierenden ED50- (ED95-)Werte wurden nach Untersuchungsgruppen zusammengestellt und mit Hilfe eines nicht-parametrischen Tests auf statistisch signifikante Unterschiede zwischen den Gruppen untersucht. Signifikanzniveau war die Irrtumswahrscheinlichkeit von 5%. Desfluran potenziert die relaxierende Wirkung der nichtdepolarisierenden Muskelrelaxanzien Vecuronium, Atracurium und auch Pancuronium. Bezogen auf die ED50 von Vecuronium liegt die potenzierende Wirkung von Desfluran bei 33% und für Atracurium bei 36%. Bezogen auf die ED95 von Vecuronium liegt die potenzierende Wirkung von Desfluran bei 34% und für Atracurium bei 38%. Vecuronium und Atracurium werden durch Desfluran in geringfügigem Masse unterschiedlich potenziert. Zusammenfassend lässt sich sagen, dass Desfluran die Wirkung der nichtdepolarisierenden Muskelrelaxanzien Vecuronium, Atracurium und Pancuronium um ein Drittel ihrer Wirkstärke potenziert, das heisst, um die gleiche Wirkung zu erhalten, ist eine Dosisreduktion der Muskelrelaxanzien um ca. ein Drittel vorzunehmen. Zudem lässt sich anhand von vergleichenden Daten aus der Literatur nachweisen, dass die Potenzierung kompetitiver Muskelrelaxanzien durch die Ätherderivate Desfluran/Isofluran substanz unabhängig ist, wobei sich die Substanzunabhängigkeit sowohl auf die verwendeten Muskelrelaxanzien als auch auf die applizierten Ätherderivate bezieht.
Primäres Ziel dieser Arbeit war es, einen direkten Beweis für die Annahme zuerbringen, dass eine starke Intensitätsabhängigkeit der N1/P2- Komponente des AEPs und im besonderen des tangentialen Dipols durch eine erniedrigte serotoninerge Neurotransmission verursacht wird. Gleichzeitig konnte als klinisch relevanter Effekt die mögliche Verwendbarkeit der Intensitätsabhängigkeit als biologischer Marker für das Aktivitätsniveau des serotoninergen Systems getestet werden. Durch das Studiendesign wurde zusätzlich die Überprüfung des allgemein postulierten Zusammenhanges zwischen einer impulsiv-aggressiven Persönlichkeitsstruktur und einer hohen Intensitätsabhängigkeit evozierter Potentiale als Nebenziel ermöglicht. Mit Hilfe in ihrer Zusammensetzung verschiedener Aminosäure-Mischungen, die eineperiphere Tryptophandepletion herbeiführen, sollte eine verminderte zentrale serotoninerge Neurotransmission erzielt werden.Die Intensitätsabhängigkeit des AEPs an den Tagen mit verminderter Verfügbarkeit des einzigen Präkursors von Serotonin, der essentiellen Aminosäure Tryptophan, wurde im Vergleich zu einem Kontrolltag überprüft, an dem nur ein Placebo verabreicht worden war.Dazu wurden 13 gesunde Probanden (7w, 6m) im Alter von 24-32 Jahren nach ausführlicher psychologischer Erfassung ihrer Persönlichkeitsstruktur einemdoppelblinden, placebokontrolliertem Cross-over Studiendesign unterworfen, in dem jede Versuchsperson die Aminosäure-Mischung Young 50 bzw. 100 und Moja als Tryptophandepletionstest (TDT) neben einem Placebo erhielt. Die Intensitätsabhängigkeit des AEPs am Kontrolltag wurde mit den bei der Voruntersuchung erhobenen Persönlichkeitsmerkmalen in Zusammenhang gesetzt. Das Hauptergebnis dieser Arbeit war eine positive Korrelation der Plasmatryptophanspiegels mit der Intensitätsabhängigkeit des tangentialen Dipols des N1/P2-Komplexes (r=0,46; p<0,05).Dies steht im Widerspruch zu den bisher veröffentlichten Arbeiten zu diesem Thema. Ein Grund für dieses konträre Resultat mag eine durch den TDT nicht herbeigeführte Erniedrigung der zentralen serotoninergen transmissiven Aktivität sein. Zudem wurden die meisten anderen Untersuchungen an Patienten, bei denen eine Störung im serotoninergen System von vornherein angenommen worden war, vorgenommen, was einen Hauptunterschied zu dieser Studie, die mit gesunden Probanden durchgeführt worden war, darstellt. Und ob bei normalen Probanden eine Tryptophandepletion es vermag, eine Erniedrigung serotoninerger Neurotransmission zuverursachen, bleibt fraglich. Auch ist die Intensitätsabhängigkeit des AEPs wohl nicht ein rein spezifischer, sondernhöchstens ein relativ spezifischer Parameter für die zentrale Aktivität serotoninerger Neurone. Sie kann also auch von anderen Transmittersystemen mit beeinflusst sein. Mit der unterschiedlichen Ausprägung der Intensitätsabhängigkeit des AEPs in den Hemisphären liess sich allerdings ein weiteres Indiz für eine funktionelle Seitenasymmetrie in der Reizverarbeitung und wohl auch im serotoninergen Stoffwechsel finden. Aber auch das Ergebnis, dass die Intensitätsabha"ngigkeit des radialen und tangentialen Dipols teilweise hochsignifikant negativ mit als eher aggressiv und impulsiv zu beurteilenden Eigenschaften korrelierte, widerspricht den bisherigen Studienergebnissen, nach der eine hohe serotoninerge Neurotransmission generell inhibierend auf das Verhalten wirke, und somit Aggressivitä"t und Impulsivität beiPersonen mit hoher Intensitätsabhängigkeit evozierter Potentiale auftreten müsste. Zweifel, ob die Intensitätsabhängigkeit wirklich den geeigneten Parameter zur Beurteilung des Aktivitätsniveaus im serotoninerge System darstellt, lassen das Ergebnis weniger widersprüchlich erscheinen. Ebenso erfordert die Komplexität des Zusammenspiels vieler verschiedener Modulatoren wohl eine enger gefasste Fragestellung, die auch andere Transmittersysteme, wie etwa das noradrenerge und dopaminerge, und Hormone, wie Testosteron oder Cortisol, mit einschliesst. Eine Beteiligung des serotoninergen Transmittersystems bei der Beeinflussungaggressiven und impulsiven Verhaltens lässt sich jedoch aus der Beobachtung vermuten, dass die Veränderung der Intensitätsabhängigkeit durch den Tryptophandepletionstestsich bei verschieden Persönlichkeitstypen anders verhielten. Neugierverhalten und Impulsivität zeigten eine signifikant negative Korrelation, mit der depletionsabhängigen Steigungsänderung (DSA"), Schadensvermeidung dagegen eine signifikant positive. Die Auswirkungen des TDT auf die Befindlichkeit und das Verhalten derteilnehmenden Probanden waren Themen einer anderen Arbeit (Sadigorsky, in Vorbereitung), ebenso wie die neuropharmakologischen Aspekte der Tryptophandepletion (Kewitz, in Vorbereitung). Durch die hier vorgestellten Ergebnisse erfährt die Hoffnung, einen biologischen Marker für einen für die Genese vieler psychiatrischer Störungen wichtigen Neurotransmitter gefunden zu haben, der nicht invasiv ist und schnell Einzug in dieklinische Routinediagnostik halten könnte, leider keinen Rückhalt. Zu viele Zweifel bestehen an der Aussagekraft und Spezifität dieses Funktionsparameters.
Die präventive Rückenschule zu Pferde ist eine Möglichkeit haltungsgefährdete Kinder, besonders solche, die nicht zur aktiven Teilnahme an einer konventionellen Rückenschule zu bewegen sind, durch den besonderen Anreizdes Pferdes zu rückenschonendem Verhalten zu motivieren. In mehreren Pilotstudien konnten ermutigende Beobachtungen gemacht werden. Verschiedene Verfahren zur Evaluation einer Rückenschule wurden betrachtetund eine Bewertung wurde vorgenommen. Im Vordergrund der Betrachtung standen die Haltung und eventuelle Beschwerden. Die Beurteilung der Haltungdurch den Orthopäden im Rahmen einer körperlichen Untersuchung erscheint uns als das verlässlichste Instrument. Von besonderer Bedeutung ist hierbei der Halteleistungstest nach Matthias. Der Einsatz von Fragebogen erfasst den Parameter Beschwerden am sichersten. Ultraschallvermessungen zur Haltungsbeurteilung und Mobilitätsbestimmung sind wegen unklarer Validität der Daten noch nicht zu empfehlen. Auch die Erfassung von Ausdauer oder Erschöpfung sowie Kraftzunahme ist mit der Elektromyographie noch nicht sicher zu leisten. Zukünftige Entwicklungen bleiben abzuwarten. Die Durchführung der "Präventiven Rückenschule zu Pferde" ist nach unseren positiven Erfahrungen empfehlenswert.
Bei dem familiären Mittelmeerfieber handelt es sich um eine Krankheit, welche in den betroffenen Ländern eine ähnlich hohe Prävalenz aufweist, wie bei uns z.B. die Zöliakie. Daher ist es wichtig, auch im klinischen Alltag differentialdiagnostisch das FMF mit einzubeziehen. Zwei Drittel der Patienten erkranken bis zum 10. Lebensjahr, 90% bis zum 20. Lebensjahr. Das immer anzutreffende Symptom ist Fieber bis über 39 0C, welches nach wenigen Tagen wieder zurückgeht. Diese Fieberschübe kehren in nicht vorhersagbaren Abständen wieder. Vergesellschaftet ist der Fieberschub fakultativ mit verschiedenen Begleitsymptomen wie Bauchschmerz, Gelenkschmerz, Pleuritis und selten auch Perikarditis. Die immer wiederkehrenden starken Bauchschmerzen mit Peritonitis führen dazu, dass die Kinder häufig laparotomiert und appendektomiert werden. Die Arthritis tritt meist als Monoarthritis von Knie, Sprunggelenk, Hüftgelenk oder Schulter auf. In seltenen Fällen ist auch eine Chronifizierung der Beschwerden beschrieben, was zur Arthrose bis hin zur Notwendigkeit des künstlichen Gelenkersatzes führen kann. Vital bedrohlich wird das FMF jedoch durch die Ausbildung einer Niereninsuffizienz bei Amyloidose. Diese tritt ohne Therapie in ca. 50% der Fälle nach 2 bis 7 Jahren auf. In der Literatur zum FMF sind Beschreibungen des Krankheitsbildes nur aus den typischen Regionen und insbesondere aus Israel zu finden. Eine Übersicht über die Ausprägung des FMF in Deutschland findet sich nicht. In der vorliegenden Arbeit wird aktuell nachgefragt, wie viele Kinder mit FMF bei den Kinderärzten in Hessen und Rheinland-Pfalz in Behandlung sind und wie sich das klinische Erscheinungsbild und die Therapie der Erkrankung darstellt. In zwei Befragungen wurden die im Berufsverband der Kinderärzte zusammengeschlossenen Kinderärzte befragt. Ca. 53% (389) der angeschriebenen Kinderärzte antworteten auf die Umfrage. Es wurde über 28 Kinder berichtet, welche wegen des FMF in Behandlung stehen. Die Appendicitis wurde als Fehldiagnose am häufigsten genannt, dies entspricht den Angaben aus der Literatur, auch wurde in nachvollziehbarer Zahl eine familiäre Belastung angegeben. Entsprechend dem Bevölkerungsanteil im Befragungsgebiet kam der überwiegende Teil (57%) aus der Türkei. Der Ausprägungsgrad der Krankheit variiert jedoch deutlich zu den in der Literatur gemachten Angaben. Die begleitenden Symptome treten insgesamt seltener auf, als wie in der Literatur beschrieben. Hierbei muss jedoch berücksichtigt werden, dass die Angaben in der Literatur sich eventuell auf nicht mit Colchicin therapierte Fa"lle beziehen, während fast alle von uns erfassten Kinder rasch mit Colchicin behandelt wurden. Besonders erfreulich ist die Tatsache, dass keines der gefundenen Kinder unter einer Niereninsuffizenz leidet.
Die zunehmend breitere Verwendung der Hydroxyethylstärke in immer höheren Dosierungen stellt die Frage nach ihrem Abbau und der Speicherung im Körper. Dazu wurde die Leber, als ein Organ mit bekannter Speicherung von Hydroxyethylstärke und als möglicher Abbauort, mit HES 200/0,5 künstlich perfundiert. Als Modell wurde die Wistar-Ratte gewählt, und als Kolloide zum Vergleich diente eine HES 450/0,7 und eine Gelatinelösung. Zur Differenzierung des Abbaus durch die Leber und des Plasmas wurde eine Reihe mit gewaschenen Erythrozyten als Sauerstoffträger, und ein Leerversuch ohne Leber durchgeführt. Durch die Leberperfusionen konnte gezeigt werden, dass ein Abbau in der Leber nur sehr langsam stattfindet. Weiterhin liess sich nur ein eingeschränkter Abbau der Hydroxyethylstärke mit mittlerer Substitution durch die a-Amylase zeigen, während er sich bei der hochsubstituierten HES überhaupt nicht nachweisen liess. Der Abbau der Hydroxyethylstärke ist nach anfänglich schneller Spaltung durch die a-Amylase und Ausscheidung durch die Niere anschliessend nur noch sehr langsam. Da in der Leber sowohl Hepatozyten als auch Zellen des RES vorhanden sind, scheint diese langsame Elimination auch für den Patienten zu gelten, nachdem alle nierengängigen Moleküle im Urin ausgeschieden wurden. Während diese langsame Elimination die mittelsubstituierte HES nur zum kleinen Teil betrifft, dürfte jedoch der grösste Teil der hochsubstituierten HES auf diese Art abgebaut werden. Dennoch ist wohl nur der Anteil der persistierenden Fraktion unterschiedlich, aber sowohl bei HES 200/0,5 als auch bei HES 450/0,7 scheint die persistierende Fraktion nicht nur ähnlich eliminiert zu werden sondern auch chemisch gleich zu sein. Sowohl hoch- als auch mittelsubstituierte HES können bei häufiger Applikation kumulieren. Ein Kolloid mit ähnlich positiven Eigenschaften, aber ohne persistierende Fraktion wäre für die Daueranwendung der Hydroxyethylstärke vorzuziehen.
Zur Beantwortung der Frage nach dem Auftreten einer Narbenhernie nach medianerLaparotomie bei elektiver colorektaler Chirurgie wurden 482 Patienten befragt. Diese Patienten wurden im Zeitraum von Anfang 1985 bis Anfang 1994 in derChirurgischen Klinik I der Städtischen Kliniken Offenbach mit dieser Technik operiert.423 Patienten konnten mittels eines Fragebogens nachuntersucht werden. Bei der Auswertung dieser Fragebögen zeigte sich, dass es bei 10,17% der Patienten zu einerNarbenhernie kam. 86% dieser Hernien traten innerhalb der ersten zwei postoperativen Jahre auf.Zur Frage, welchen Einfluss die bekannten Risikofaktoren auf die Häufigkeit des Auftretens einer Narbenhernie hatten, wurden folgende Faktoren untersucht: -männliches Geschlecht -frühere Laparotomie -Adipositas -Hypertonie -Diabetes mellitus -chronische Atemwegserkrankungen -postoperative Beatmung -Wundheilungsstörungen -Alter -Nahtmaterial -Bluttransfusion -Anämie -Hypoproteinämie -postoperative Chemotherapie -Nahttechnik Die hier untersuchten Faktoren könnten Risikofaktoren für das Auftreten einerNarbenhernie sein. Es kam zu einem statistisch signifikant höheren Auftreten von Hernien (c2-Test bei der Irrtumswahrscheinlichkeit a=0,05) bei Patienten mitpostoperativer Chemotherapie und in der Gruppe der 51 bis 60 Jahre alten Patienten. Folgende Faktoren scheinen die wichtigsten zu sein: -postoperative Beatmung -postoperative Chemotherapie (signifikant) -Wundheilungsstörungen -Alter zwischen 51 und 60 Jahre (signifikant) -frühere Laparotomie -chronische Atemwegserkrankungen -Einzelknopfnaht -Adipositas -Polyglykolsäure (Dexon(R)) als Nahtmaterial -arterielle Hypertonie -männliches Geschlecht Die übrigen untersuchten Faktoren zeigen ein nur gering höheres Auftreten oder sogar ein niedrigeres Auftreten von Hernien. Dies ist zum Teil auf die geringe Anzahl derPatienten in diesen Gruppen zurückzuführen. Beim Vergleich der aseptischen mit den kontaminierten Eingriffen kommt es zueinem signifikant höherem Auftreten von Narbenhernien in der Gruppe der aseptisch Operierten. Bei dieser Gruppe erfolgte im Gegensatz zur Gruppe mit denkontaminierten Eingriffen der Bauchdeckenverschluss mit nichtresorbierbarem Nahtmaterial (Prolene(R)).Man kann zusammenfassend sagen, dass ein erhöhtes Auftreten von Hernien bei Patienten zu erwarten ist, bei denen es zu einer Beeinträchtigung der Wundheilungoder zu einer Erhöhung des intraabdominellen Druckes kommt. Weiteres Augenmerk ist auf das verwendete Nahtmaterial sowie die Nahttechnik zu richten. EineVerwendung von Polyglykonat in fortlaufender Nahttechnik hat gemäss dieser Untersuchung ein geringeres Auftreten von Narbenhernien zur Folge.Eine Untersuchung, die die Gründe des signifikant höheren Auftretens von Hernien bei Patienten mit Arteriopathien betrachtet, scheint mit dieser speziellen Fragestellungsinnvoll zu sein.
Die multiple Sklerose mit ihren 3 klinischen Verlaufssubformen schubförmig, sekundär chronisch-progredient und primär chronisch-progredient weist sowohl im klinischen Symptomenbild als auch in der Verlaufsdynamik eine ausgesprochene Heterogenität auf. Als prognostisch ungünstig gelten in erster Linie der primär oder sekundär chronisch-progrediente Krankheitsverlauf, ein höheres Manifestationalter, eine initiale cerebelläre und/oder pyramidale Symptomatik und ein in der frühen Phase sich rasch kumulierendes funktionelles Defizit. Andere mögliche Einflussgrössen, insbesondere genetische Faktoren, Liquorparameter und primäre Behandlungsstrategien, sind diesbezüglich umstritten oder weitgehend negativ geblieben. Eine sowohl im Hinblick auf die Krankheitsdefinition im Einzelfall als auch in prognostischer Hinsicht, in absehbarer Zeit vielleicht sogar für die Therapie, relevante Frage ist die des Auftretens einer zweiten neurologischen Krankheitsepisode (Schub, Attacke) nach einer zunächst isoliert aufgetretenen Episode einer entzündlichen neurologischen Erkrankung, die von der Art der Symptomatik und nach den technisch-apparativen wie laborbezogenen Zusatzbefunden als Erstschub einer multiplen Sklerose aufgefasst werden könnte. Die hierzu bislang vorliegenden Untersuchungen hatten in erster Linie die isolierte Optikusneuritis und monosymptomatische ZNS-Syndrome wie Querschnittsmyelitis, Episoden mit rein sensiblen Störungen und solche mit ausschliesslicher Hirnstammsymptomatik zum Gegenstand. Bevölkerungsbezogene Daten wurden dabei jedoch nur für die Optikusneuritis vorgelegt, zudem war bei dieser die Wertigkeit der paraklinischen Zusatzbefunde nur anhand klinischer Serien untersucht worden. In der vorliegenden eigenen Studie wurde die spezielle Frage der Fortentwicklung von einer möglichen bzw. fraglichen multiple Sklerose in eine wahrscheinliche oder sichere MS in Form entweder eines zweiten Krankheitsschubes oder des Übergangs in einen sekundär chronisch-progredienten Verlauf anhand einer Subkohorte mit einer derartigen Ereigniskonstellation aus einem bevölkerungsbezogen ermittelten umfangreichen MS-Krankengut (N=950) untersucht. Der Studienansatz entspricht einer gemischten historisch und prospektiv angelegten Kohortenstudie. Als Einschlusskriterien galten die klinisch gestellte Verdachtsdiagnose der multiplen Sklerose im Sinne einer Einzelattacke und die Zugehörigkeit zu der die epidemiologische Studienpopulation bildenden Bevölkerung eines definierten Areales in Südhessen sowie die Durchführung der ersten stationären abklärenden Untersuchung in der das Studienzentrum darstellenden Neurologischen Klinik in Darmstadt. Die Daten zum weiteren Krankheitsverlauf der Kohortenmitglieder wurden teilweise im retrospektiven Ansatz der Einzelfalldokumentationen der epidemiologischen Feldstudie, ergänzt durch die Krankenblattarchive der Klinik, teilweise prospektiv (die nach den vorliegenden Aufzeichnungen ohne Zweitereignis gebliebenen und damit als zu zensierend anzusehenden Patienten betreffend) durch prospektives Nachfragen bei den weiterbehandelnden Ärzten und den Kohortenmitgliedern selbst in Erfahrung gebracht. Die Wahrscheinlichkeit des Ausfallsereignisses, d.h. des Auftretens einer weiteren Krankheitsepisode bzw. eines sekundär chronisch-progredienten Verlaufes wurde in Abhängigkeit von der Beobachtungszeit nach den Methoden der Überlebenszeitanalyse (Kaplan-Meier-Methode) ausgewertet, und der mögliche Einfluss von demographischen und klinischen Variablen wurde univariat mittels des Log-Rank-Testes und multivariat anhand des Cox'schen Proportional Hazard- Modells untersucht. Von den 136 hinsichtlich des weiteren Verlaufes auswertbaren Patienten der Kohorte trat während der Beobachtungsperiode von Januar 1982 bis August 1995 bei 71 (45 Frauen, 26 Männern) das Ausfallsereignis ein, wobei das Intervall zwischen 2 Monaten und 12 Jahren stark variierte. Für die Gesamtkohorte (N = 136) lag der Median bei 67 Monaten (Standardabweichung: 17 Monate), und nach 95 Monaten (7,9 Jahre) hatten 40 % der Kohortenmitglieder das Zweitereignis (noch) nicht entwickelt. Bei der univariaten Auswertung anhand des LogRank-Testes waren ein Erkrankungsalter unter 30 Jahren, eine andere Anfangssymptomatik als eine monosymptomatische Optikusneuritis, das Betroffensein von mehr als 2 Funktionssystemen bei der initialen Episode sowie eine abnorm erhöhte Liquorzellzahl, ein erhöhtes Liquoreiweiss und eine gesteigerte intrathekale IgG-Syntheserate bzw. wenigstens einer der genannten Liquorparameter sowie eine Latenzzeitverzögerung im VEP (mit oder ohne gleichzeitige Amplitudenreduktion) statistisch signifikant (P < 0,05) mit der Ereigniswahrscheinlichkeit assoziiert. Ein niedrigerer sozioökonomischer Status (manuelle Berufstätigkeit zu Krankheitsbeginn), das Vorhandensein motorischer bzw. pyramidaler Störungen bei der Ausgangsepisode, das Vorliegen multipler Herdbildungen in der Kernspintomographie und die Anwendung einer Steroidtherapie bei der initialen Krankheitsattacke waren diesbezüglich grenzwertig signifikant (P 0,05 < P < 0,1). Hingegen waren das Geschlecht, die Nationalität, die übrigen betroffenen Funktionssysteme beim Initialschub (darunter Hirnstammsymptome, eine rein sensible Anfangssymptomatik und zerebelläre Symptome), das Vorhandensein von 2 oder mehr im Vergleich zu einem Funktionssystem sowie die Befunde der somatosensorisch evozierten Potentiale (SEP) und der Computertomographie (CT) diesbezüglich ohne prädiktiven Wert. In der multivariaten Auswertung anhand des Cox'schen Regressionsmodells zeigten die Beteiligung von 3 oder mehr Funktionssystemen, eine über eine Optikusneuritis hinausgehende Anfangssymptomatik, Latenzzeitverlängerungen im VEP und eine gesteigerte intrathekale IgG-Syntheserate einen eigenständigen Beitrag zum Risiko des Progesses in Form eines Zweitereignisses und damit des Überganges in eine gesicherte multiple Sklerose, während die übrigen univariat mit dem Risiko verknüpften Variablen sich diesbezüglich als konfundiert erwiesen. Wenngleich die in den Ergebnissen zu Tage getretenen breiten Konfidenzintervalle eine Festlegung im Einzelfall enorm erschweren, lassen die Ergebnisse doch gewisse Trendaussagen sowohl im Hinblick auf die Planung wissenschaftlicher Studien als auch die Beratung des einzelnen Kranken zu. Insbesondere erscheint es gerechtfertigt, bei einer Kombination von mehreren der in der vorliegenden Studie herausgestellten positiven prädiktiven Einfluss- grössen von einer eher ungünstigen Prognose, die Entwicklung einer klinisch sicheren MS betreffend, auszugehen. Ob damit auch eine prognostische Voraussage über den in der eigenen Studie nicht untersuchten weiteren Langzeitverlauf möglich ist, kann in Anbetracht der stark kontroversen Datenlage in der Literatur, die initiale Schubhäufigkeit und die Zahl beteiligter Funktionssysteme betreffend, vorerst noch nicht beurteilt werden. Über den wissenschaftlich studientechnischen und den Beratungsaspekt hinausgehend ist von Interesse, ob die hier aufgezeigten prognostischen Prädiktoren auch als Richtschnur für therapeutische Entscheidungen dienen können. Da eine das hier untersuchte Zielereignis beeinflussende Therapie vorläufig nicht existiert, stellt sich diese Frage derzeit konkret noch nicht, entsprechende Untersuchungen sind aber beispielsweise für Interferon-beta 1a im Gange. In jedem Fall werden evtl. zukünftige derartige Entscheidungen, auch dann wenn sich krankheitsbezogene Prädiktoren wie die in der hiesigen Studie herausgestellten mit heranziehen lassen, angesichts potentieller Nebenwirkungen der jeweiligen Substanzen ein hohes Mass an ethischer Verantwortung erfordern.
Elektrische Kardioversion bei persistierendem Vorhofflimmern : ambulante versus stationäre Therapie
(1998)
Aufgrund ihrer bekannten Sicherheit und hohen Erfolgsrate ist die Elektrokardioversion im stationären Rahmen eine etablierte Therapie bei chronisch persistierendem Vorhofflimmern. In der vorliegenden Arbeit haben wir untersucht, ob auch die ambulante Durchführung einer Kardioversion mit gleicher Effektivität und Sicherheit möglich ist. Somit war Ziel der Arbeit, ambulante Kardioversionen zu untersuchen und der stationären Behandlung gegenüberzustellen. Während der anderthalbjährigen Laufzeit der prospektiven, nicht randomisierten Studie wurden 88 konsekutive, elektive Kardioversionen (an 65 Patienten) ambulant durchgeführt; insgesamt wurden während dieses Zeitraums 115 Prozeduren (bei 88 Patienten) erfaßt. Es wurde anschließend eine Nachbeobachtung über einen mittleren Zeitraum von 203 Tagen durchgeführt. Die Studie ergab, daß ambulante Kardioversionen zu 84% erfolgreich waren und Rezidive in 59% der Fälle innerhalb der Nachbeobachtung eintraten. Es zeigte sich bei den Patienten eine Abhängigkeit des Kardioversionserfolges vom Bestehen des Vorhofflimmerns. In der statistischen Analyse stellten sich keine klinischen Parameter als signifikant mit einem Rezidiv verbunden dar. Der abschließende Vergleich mit einer stationär therapierten Patientengruppe ergab keine signifikanten Unterschiede bezüglich Erfolg, Rezidiv und Sicherheit der Behandlung. Behandlungsbedürftige Akutkomplikationen traten bei 1,7% der ambulanten Kardioversionen auf. Schwere Komplikationen, insbesondere Embolien, wurden nicht beobachtet. Es traten keine schweren Blutungskomplikationen bei den chronisch antikoagulierten Patienten auf. Ambulante Kardioversionen sind der Therapie im stationären Rahmen gleichwertig und zudem deutlich kostengünstiger durchführen. Als Konsequenz dieser Untersuchung ist bei elektiven Eingriffen die ambulante Kardioversion des Vorhofflimmerns der stationären Behandlung vorzuziehen.
Bei einer Behandlung mit festsitzenden Apparaturen stehen für Zahnverschiebungen in mesio-distaler Richtung und zur Okklusionseinstellung seit 1993 als Alternative zu Gummiringen aus Latex Zugfedern aus der Nickel-Titan-Legierung Sentalloy zur Verfügung. Die vorliegende Untersuchung zeigt die materialtechnischen Besonderheiten der beiden Werkstoffe auf und beschreibt die Vor- und Nachteile in der klinischen Anwendung der Gummizüge und der Federn. Es wurden Gummizüge aus Latex von Ormco Dental (Glendora) in den Grössen 3/16, 1/4 und 5/16 inch in jeweils drei verschiedenen Stärken sowie pseudoelastische, Ni-Ti-Federn von GAC Int. Inc. (New York) untersucht. Dazu wurden in der Universalprüfmaschine Zwick 1421 die Kennlinien der verschiedenen Kraftelemente aufgezeichnet. Darüber hinaus wurde der Kraftabfall der Gummizüge durch isometrische Dehnung und durch Wechsellastversuche bestimmt sowie der Einfluss einer thermischen Alterung auf die Gummizüge untersucht. In einem Wechsellastversuch mit pseudoelastischen Federn wurde die Anzahl der Federbrüche innerhalb von 480.000 zyklischen Belastungen registriert. Die untersuchten Gummizüge zeigten eine für elastische Materialien typische Hysterese form der Kennlinie. Die Kennlinien pseudoelastischer Zugfedern wiesen eine Transformationshysterese mit einer über mehrere Millimeter annähernd konstanten Kraftabgabe auf. Bei Dehnung von Gummizügen derselben Grösse zeigten stärkere Gummizüge grössere Abweichungen in der Kraftentfaltung als schwächere Gummizüge. Insgesamt lagen solche Streubreiten zwischen 26% und 33%. Bei Dauerbelastung der Gummizüge blieb die Kraftabgabe der Gummizüge nach geringem initialen Abfall annähernd konstant. Es wurde nachgewiesen, dass die Kraftabgabe der Gummizüge bei isometrischer Dehnung innerhalb von 24 Stunden zwischen 8% und 15% fällt. Bei Wechsellastversuchen mit insgesamt 30.000 Lastwechseln verloren die Gummizüge etwa 10% - 15% ihrer Ursprungskraft. Thermische Alterung zeigte keinen Einfluss auf die Kraftentfaltung der Gummizüge. Grundsätzlich wiesen beide Materialien eine Temperaturabhängigkeit der Kennlinie auf. Während sich bei beiden Materialien die Hysteresefläche der Kennlinie bei höheren Temperaturen verschmälert, wird bei pseudoelastischen Federn zudem das Plateau der Kennlinie zu deutlich höheren Kraftwerten hin verschoben. Im Wechsellastversuch mit pseudoelastischen Federn kam es trotz gleichförmiger, axialer Belastung häufig zum spontanen Bruch der Federn. Die Kennlinie wies nach Wechselbelastung eine schmalere Hysteresefläche und ein zu geringeren Kraftwerten hin verschobenes Plateau der Kennlinie auf.
Die wirtschaftshistorische Arbeit beleuchtet und analysiert Aspekte aus der Unternehmens -,Regional- Technik- und Branchengeschichte und nutzt umfangreiches Quellen - und Zahlenmaterial aus Firmen- und Staatsarchiven und zeitgenössischer Literatur. Einige ältere Publikationen über die Eisenregion gibt es, die aber den Strukturwandel und die Gießereien. garnicht oder nur am Rande abhandeln. Wichtigste Quellen sind Bestände des Archivs Frank'sche Eisenwerke, Dillenburg und weitere durch das Hessische Wirtschaftsarchiv Darmstadt übernommene Firmenakten. Das im Lahn-Dill-Gebiet teilweise schon seit dem 15.-18. Jh. bestehende Eisengewerbe auf der Basis reicher Eisenerzvorkommen, größerer Waldungen für Holzkohle und von Wasserkraft, geriet ab dem 2. Drittel des 19. Jh. in Schwierigkeiten. Nach einer Aufschwungphase durch steigenden Eisenbedarf etwa von 1815-1835, mit Neugründungen und Kapazitätserweiterungen, entstand durch den Importdruck von erheblich billigerem englischen und belgischen Eisen ab 1840 eine ernsthafte Krise für die Eisenwerke. Englisches und belgisches Roheisen wurde schon seit Ende des 18. Jh. durchweg mit Steinkohlekoks kostengünstig erblasen. Hinzu kamen dort bessere Rahmenbedingungen durch gute Verkehrserschliessung, ausreichende Kapitalversorgung und grössere Betriebseinheiten u.a.m. Die Eisenindustrie des Lahn-Dill-Gebietes (Herzogtum Nassau, Teile des Großherzogtums Hessen-Darmstadt und die preußische Enklave Wetzlar) war dagegen bei Einrichtungen und den Standorten im Nachteil. Die überholte Erzeugung von Roheisen in Holzkohlehochöfen, schlechte Verkehrsanbindung, vielfach zu kleine Familienbetriebe mit schmaler Eigenkapitalbasis und unzureichende Nutzung von Fremdkapital waren weitere Defizite. In der Wirtschafts- und Eisenkrise der 1840er Jahre verschärfte sich die Lage. Vom Staat eingeforderte Schutzzölle brachten nur geringe Abhilfe. Erst das Nachlassen des Importdrucks ab Anfang der 1850er Jahre und eine bessere Wirtschaftslage verschafften den Werken bis zur Krise am Ende der 1850er Jahre eine gewisse Atempause. Diese wurde aber im Lahn-Dill-Gebiet nicht dazu genutzt, die Umstrukturierung auf Steinkohlehochöfen und besonders auf mehr Verarbeitung zu Eisenguß voranzutreiben. Wenn auch die Eisenunternehmer wußten, daß man sich umstellen mußte, verhielten sie sich noch lange abwartend und zögerten bei Neuinvestitionen, wobei auch die Abneigung der Aufnahme fremden Kapitals bei den Eisenfamilien eine Rolle spielte. Hervorzuheben ist, daß durch die weitgehende Privatisierung der Eisenhütten von 1800-1860, der Kampf von Unternehmern ums Überleben wirkungsvoller war, als es bei einer staatlichen Regie möglich gewesen wäre Versäumt wurde allerdings, durch einen großen Verbund fast aller Eisenwerke, wie von der Bank für Handel und Industrie, Darmstadt und der Mitteldeutschen Credit-Bank, Meiningen vorgeschlagen, eine rationellere Unternehmensgruppe zu schaffen. Kostenvorteile durch einzelne Zusammenschlüsse und Zukäufe wie bei Buderus, dem Hessisch-Nassauischen-Hüttenverein und den Burger Eisenwerken brachten Kostenreduzierungen wie auch "Teil"-Rationalisierungen, sowie technische "Teil" Modernisierungen Durch (trügerisches) Vertrauen auf Qualitätsvorteile des Holzkohleneisens und bei im Gegensatz zu anderen Regionen günstigerer Holzversorgung blieben die Unternehmen noch bis in die 1880/90er Jahre bei Holzkohle als Brennstoff. Außerdem wollte man wegen der eigenen ergiebigen Erzgruben auch noch nicht die Roheisenerzeugung zugunsten eines reinen Gießereibetriebes aufgeben. Nur Buderus führte ab den 1860/70er Jahren die Steinkohlenverhüttung ein, setzte aber zu stark auf Roheisenproduktion und vernachlässigte den Eisenguß. Das war wegen des Aufkommens des Flußstahls riskant und führte zu einer ernsten Krise des Hauses in den 1880/90er Jahren. Die anderen mittelständischen Betriebe ließen sich zur Steinkohlenverhüttung noch nicht "verleiten", was auch mit erheblichen Risiken verbunden gewesen wäre und warteten weiter ab, bedingt auch durch familiäre Strukturen der Firmen. So retteten sich über die Konjunkturschwankungen der 1870/80er Jahre, bis sie dann endgültig meist ganz auf Gießereibetrieb umstellten. Dabei kamen Ihnen Markt - und Produktkenntnisse in diesem schon länger betriebenen Fabrikationszweig zugute. Erst ab ca. 1890 nutzten sie voll die Möglichkeiten der Kupolofentechnik, durch 2. Schmelzung auswärts günstig gekauftes Roheisen für die Eisengußproduktion einzusetzen. Der Produktions-Schwerpunkt der meisten Werke auf der Fabrikation von Herden, Öfen, Poterie war aber kein Nachteil. Die Region war hierfür bekannt, hatte etwa 40-50% Marktanteil, auch durch verbesserte Öfen und es bestand steigender Bedarf. Dauerhaft erfolgreicher waren allerdings Firmen wie Buderus und die Michelbacher Hütte, die sich mit "neuen" Produkten wie Zentralheizungs - und Kanalisationsguß, Röhren, schwerem Maschinen- und Sanitärguß befaßten, unterstützt durch eigene Erfindungen und Investitionen in neue Produktionseinrichtungen. Wichtiger als Standortbedingungen waren durch fortschrittliche Gießereitechnik kostengünstig hergestellte und den Markterfordernissen angepaßte Produkte aufgrund konsequenter Strategien von Unternehmern aber auch leitenden Angestellten, wie Generaldirektor Kaiser bei Buderus. Von 1905 - 1912 stabilisierten sich besonders die Werke, die auf "modernere" Produkte setzten.
Die vorliegende Dissertation berichtet über eine Serie von Verhaltens- und funktionellen Bildgebungsstudien zu experimentalpsychologischen Paradigmata, die eine räumliche Analyse und Koordinatentransformation von Material der visuellen Wahrnehmung oder Vorstellung beinhalten. Nach einer Einführung in die Prinzipien und Techniken der funktionellen Kernspintomographie, der hier benutzten Methode für die Messung von Gehirnaktivität, werden die Versuche einer Replikation des berühmten Stratton'schen Umkehrbrillen-Experiments dargestellt (Kapitel 1). Unsere vier Probanden zeigten zwar eine zügige Anpassung der visuomotorischen Funktionen an die neue visuelle Umwelt, berichteten aber, anders als Stratton, nicht, daß sie die Welt nach einigen Tagen mit der Umkehrbrille wieder normal sähen. Diese Persistenz des umgekehrten Bildes wurde durch eine psychphysische Testbatterie bestätigt. Des weiteren ergaben die funktionellen Kernspinmessungen, daß sich die kortikale retinotope Organisation im Verlaufe des Experiments nicht geändert hat. Da sich also Strattons Haupteffekt, das Aufrechtsehen durch die Umkehrbrille nach einwöchiger Adaptation, nicht replizieren ließ, werden andere Möglichkeiten der Interpretation der verschiedenen Umkehrexperimente der letzten hundert Jahre vorgeschlagen. Dieses Ergebnis einer funktionellen Anpassung ohne größere Änderungen der visuellen Wahrnehmung (und ohne Veränderungen der Repräsentation der Netzhautareale in der Sehrinde) führte zu der Hypothese, daß die erforderlichen Transformationen auf einer höheren Stufe der kortikalen Hierarchie der visuellen Verarbeitung erfolgen. Zur Testung dieser Hypothese wurde eine funktionelle Kernspinstudie des Umkehrlesens durchgeführt (Kapitel 2). Hierbei lasen die Probanden Wörter und Sätze in Spiegelschrift oder auf dem Kopf. Der neuronale Mechanismus der räumlichen Transformationen, die zur Bewältigung dieser Aufgabe nötig sind, konnte in bestimmten Regionen des Parietallappens, die zwischen den Probanden sehr konstant waren, lokalisiert werden. Weiterhin fand sich eine Koaktivierung okzipitootemporaler Objekterkennungs-Areale. Die Spezifizität der parietalen Aktivierungsfoci wurde durch ein Kontrollexperiment bestätigt, in welchem das kortikale System für räumliche Transformationen von den Netzwerken der allgemeinen visuellen Aufmerksamkeit und der Augenbewegungskontrolle unterschieden werden konnte. In einem weiteren Experiment wurden die räumlichen Funktionen des Parietallappens unter dem Vorzeichen der visuellen Vorstellung untersucht. Als Paradigma wurde der "mental clock" - Test verwendet, bei welchem die Probanden die Winkel der Zeiger zweier Uhren vergleichen müssen, deren Zeiten nur akustisch vorgegeben werden (Kapitel 3). Diese Aufgabe erfordert die Generierung eines entsprechenden Vorstellungsbildes und dessen räumliche Analyse, stellt also sowohl ein kontrolliertes Vorstellungs-Paradigma als auch einen Test räumlicher Funktionen dar, der nicht auf visuell präsentiertem Material beruht. Das parietale Aktivierungsmuster, das der Analyse der Winkel dieser vorgestellten Uhren zugeschrieben werden konnte, entsprach weitgehend demjenigen, das mit der räumlichen Transformation von Buchstaben verbunden war. Es handelt sich also wahrscheinlich um ein kortikales System für räumliche Analyse und Koordinatentransformationen, das nicht auf eine visuelle Stimulation angewiesen ist, sondern auch bei bloßer visueller Vorstellung aktiv werden kann. Die vorgelegten Resultate werden im Kontext neuerer neuropsychologischer Befunde zu Defiziten räumlicher Analyse und Vorstellung bei Läsionen des Parietallappens diskutiert (Kapitel 4). Auch die methodologischen Probleme der kognitiven Subtraktion, die in unseren Studien teilweise benutzt wurde, werden behandelt. Dabei wird erläutert, inwiefern diese für die Beurteilung der vorgelegten Studien nur von untergeordneter Bedeutung sind. Nichtsdestoweniger schlagen wir Modifikationen der experimentellen Paradigmata im Sinne des parametrischen Designs und des "event-related functional magnetic resonance imaging" vor, die bei zukünftigen Studien einen vollständigen Verzicht auf die kognitive Subtraktion ermöglichen dürften. Schließlich wird die Bedeutung der vorgelegten Ergebnisse für die Erforschung der Anpassungsfähigkeit des menschlichen Gehirns und des Verhältnisses von Vorstellung und visueller Wahrnehmung dargelegt.
In der vorliegenden, randomisierten Doppelblindstudie wurde bei 48 Patienten mit gesicherter koronarer Herzerkrankung die Dosis-Wirkungs-Beziehung eines neuen, antianginös wirksamen Pharmakons mit dem Namen Trimetazidine (TMZ) in den Dosierungen 3 mg, 6 mg und 16 mg gegenüber Placebo untersucht. Zusätzlich sollte die Beeinflussung der Hämodynamik nach Gabe dieses Medikamenten untersucht werden. Frühere tierexperimentelle Untersuchungen (4,7,12,24,30,35,38,39) und klinische Untersuchungen an Patienten mit koronarer Herzkrankheit , die mit einer oralen oder intravenösen Gabe von Trimetazidine behandelt wurden, hatten eine antiischämische Wirksamkeit der Substanz ohne Beeinflussung hämodynamischer Parameter ergeben (7,11,26,30,34). Nach den bisher vorliegenden pharmakologischen Untersuchungen ist anzunehmen, dass die antiischämische Wirkung von Trimetazidine nicht über die Beeinflussung der Hämodynamik, sondern wahrscheinlich auf einer Stabilisierung der myokardialen ATP- Depots und der elektrischen Membranpotentiale während einer Ischämie beruht und somit TMZ einen direkt myokardprotektiven Effekt besitzt (11,13,14,24,35,41). In der vorliegenden Studie wurden während Perkutaner Transluminaler Koronarer Angioplastie (PTCA), 3, 6 oder 16 mg TMZ oder Placebo intrakoronar injiziert und in weiteren Dilatationen die Beeinflussung der PTCA-bedingten Ischämie durch TMZ untersucht. Zur Beurteilung der antianginösen Wirksamkeit von Trimetazidine wurden die ST-Strecken zum Ausgangszeitpunkt mit den maximalen ST-Strecken-Änderungen während der jeweiligen Okklusionen in den vier verschiedenen Therapiegruppen vergl ichen. Zusätzlich wurden die Ausbildungszeiten der maximalen ST-Strecken-Änderungen und deren Rückbildungszeiten in den vier Gruppen (Placebo, 3 mg, 6 mg und 16 mg TMZ) untersucht. Die Untersuchungen ergaben keine signifikanten Unterschiede zwischen den vier Gruppen sowohl vor, als auch nach der Gabe von TMZ bzw. von Placebo. Es wurde keine Beeinflussung der hämodynamischen Parameter unter Trimetazidine (systemischer Blutdruck, intrakoronarer Blutdruck und Herzfrequenz) beobachtet, was auf Grund einer früheren Studie auch erwartet wurde. Die subjektiv eingeschätzten pektanginösen Beschwerden blieben vor und nach der Gabe von TMZ / Placebo gleich. Die während der Untersuchung beobachteten Nebenwirkungen waren gering und nicht auf die Gabe vom TMZ zurückzuführen. Nach gewissenhafter Abwägung der Ergebnisse und dem Vergleich mit den Daten aus der Literatur scheinen weitere Untersuchungen mit vergleichbarem Studienau fbau an einem grösseren Patientenkollektiv und - um ein homogeneres Patientenko llektiv zu erhalten - bei Beschränkung der Dilatationen auf nur ein Gefäss, vorzug sweise den RIVA wünschenswert, um das Ausmass der antiischämischen Wirkung und die Dosis-Wirkungs-Effekte von TZM weiter zu erforschen.
In der vorliegenden Arbeit wurden 12 Biopsien von ALS Patienten qualitativ und quantitativ beurteilt. Nur ein Teil der Patienten wies klinisch Sensibilitätsstörungen auf, Patienten mit Erkrankungen, die bekanntermassen polyneuropathische Schädigungen verursachen können, wurden ausgeschlossen. Es zeigte sich, dass einige der Biopsien (9 von 12 Fällen) qualitative und quantitative Veränderungen aufwiesen, die sich als primär neuronale und/oder axonale Schädigungen interpretieren lassen. In 3 von 12 Fällen fand sich quantitativ ein Normalbefund, bei 2 von diesen 3 Fällen auch qualitativ. Die typischerweise bimodalen Faserdurchmesserhistogramme der myelinisierten Fasern waren nach links verschoben. Diese Verschiebung war am ersten Gipfel deutlicher ausgeprägt als am zweiten Gipfel. Die grössten Fasern fehlten oftmals. Auch die als insgesamt noch normal befundete 3 Biopsien von ALS Patienten hatten, den ersten Gipfel betreffend, Veränderungen, die in die gleiche Richtung gingen, sich jedoch statistisch nicht signifikant von den Kontrollen unterschieden. Die Verteilung der Axondurchmesser ist, wenn auch weniger ausgeprägt, ebenfalls nach links verschoben. Die Befunde, mit besonderer Berücksichtigung der auffallenden Veränderungen an den kleinen Fasern, sprechen für ein vermehrtes Vorkommen von Regeneraten und remyelinisierten Fasern, evtl. in Kombination mit axonaler Atrophie. Es ergeben sich im Vergleich mit den dazu veröffentlichten, z. T. untereinander divergierenden Daten von sechs Arbeitsgruppen einige Übereinstimmungen. Dadurch wird deutlich, dass es sich bei den Veränderungen am N. suralis bei ALS um einen Prozess mit axonaler Atrophie, konsekutiver Bildung von Regeneraten und sekundärer De- und Remyelinisierung handelt. Unterschiede zwischen den verschiedenen Studien bestehen in der Beurteilung des Anteils an Regeneraten und Remyelinisierungen an den kleinen Fasern und damit welchen Anteil axonale Veränderungen gegenüber der Neuronopathie an der Ätiologie der ALS haben. Die vorliegenden Ergebnisse betonen die axonale Komponente der Erkrankung. Eine Beteiligung des sensiblen N. suralis am pathologischen Prozess bei ALS konnte somit in den meisten Fällen (9 von 12 Fällen) nachgewiesen werden. Die pathologischen Veränderungen unterscheiden sich qualitativ nicht von den in autoptischen Studien gefundenen Veränderungen im motorischen System; sie sind jedoch viel milder ausgeprägt. Es kann somit davon ausgegangen werden, dass die Veränderungen des N. suralis bei ALS frühere pathomorphologische Krankheitsstadien repräsentiere, als die im motorischen System gefundenen. Da der N. suralis zu diagnostischen Zwecken entnommen wird, sind diese Ergebnisse auch von diagnostischer und differentialdiagnostischer Relevanz, insbesondere in der Abgrenzung zu den Polyneuropathien.
Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen
(1997)
Das Ziel der vorliegenden Arbeit war die Entwicklung einer komfortablen Beschreibung verteilter Anwendungen, die kontinuierliche Medien integrieren. Die Klarheit des Ansatzes ergibt sich aus der Beschränkung auf die anwenderrelevanten Funktionalitäten. Weitere Gebiete, die systembezogen sind, wurden nur soweit wie nötig behandelt. Die Aufgaben anderer Bereiche, wie des Betriebssystems und des Managementsystems sowie der Kommunikationsdienste, konnten nur gestreift werden, indem die anwendungsabhängigen Anforderungen spezifiziert wurden. Durch deren Extraktion und die Zuordnung der Anforderungen an die einzelnen Bereiche, ergibt sich eine klarere Sicht auf Betriebssystem, Management und Kommunikationsdienste und deren notwendige Weiterentwicklung. Das entwickelte Funktionenmodell beschreibt zusammenhängend alle mit kontinuierlichen Medien verbundenen Arbeiten. In der vorliegenden Arbeit wurde gezeigt, wie aus den Funktionen auf kontinuierlichen Medien durch die Spezifikation geeigneter Schnittstellen Bausteine zur Integration der Medien in verteilte Anwendungen erstellt werden. Die Beschrei bung der Bausteine erfolgt durch diese Schnittstellen; es sind Steuer-, Daten- und Managementschnittstellen. Die Herauslösung der gesonderten Beschreibung der Multimedia-Datenflußstruktur schafft einerseits die Grundlage für eine Teilklassifikation der Anwendungen nach Medien-Gesichtspunkten. Andererseits kann die Erstellung einer Anwendung aus einer bestimmten Anwendungsklasse, wie zum Beispiel ein einfaches Wiedergabesystem, durch die gesonderte Beschreibung der Multimedia-Datenflußstruktur schneller in der Bausteinstruktur realisiert werden. Das Funktionenmodell wird auch in [Fritzsche96] beschrieben. Das in dieser Arbeit konzipierte Bausteinmodell gewährleistet eine integrierte Beschreibung von Geräten, Werkzeugen und Anwendungen kontinuierlicher Medien. Die verwendete Beschreibungstechnik erlaubt dabei nicht nur eine übersichtliche Darstellung sondern bietet auch hierarchische Strukturierungen an. Das Zusammenspiel der Bausteine erfordert zu sätzliche Komponenten zur Steuerung und Abstimmung der einzelnen Funktionen, die in dieser Arbeit neu eingeführt werden. Es lassen sich sowohl zentralistische als auch verteilte Steuerungen realisieren. Mit einer entsprechenden Schnittstelle versehen kann eine Steuerkomponente eine ganze Gruppe von Bausteinen dem Benutzer als Einheit zur Verfügung stellen. Somit lassen sich auch verschiedene Medien und/oder mehrere Funktionen gemeinsam mit einer Steuerkomponente zu einem Baustein zusammenfassen. Diese zusammenge setzten Bausteine bieten nun echte Multifunktionalität und Multimedialität. Durch die Komponenten- und Anwendungsmodellierung nach [Zimm93] wird darüber hinaus eine flexible, auch dynamisch änderbare Anwendungsstruktur vom Anwendungs-Management ermöglicht. Das Bausteinmodell wird auch in [Fritzsche96] behandelt. Bisherigen Ansätzen für Multimedia-Komponenten fehlt die allgemeine Interoperabilität der Komponenten. Diese kann nur durch eine umfassende, formale Spezifikation der Komponenten-Schnittstellen, insbesondere aber von Steuerschnittstellen, erfolgen. Zur Spezifikation der Schnittstellen ist die Integration der kontinuierlichen oder zeitabhängigen Medien als abstrakte Datentypen unabdingbar. Auf diese Art werden aus den Komponenten Bausteine. Im vorliegenden Ansatz wurden erstmalig Steuerschnittstellen für Multimedia-Komponenten spezifiziert und als Hierarchie dargestellt. Der neue Ansatz erlaubt es daher, multimediale Systeme nach einem Baukastensystem zu erstellen, indem Bausteine durch Bindung untereinander zu einer Anwendung zusammengesetzt werden. Nach der Verbindungsstruktur der multimedialen Anwendung können verschiedene Anwendungstypen unterschieden werden. Die Definition der Komponentenschnittstellen bezieht sich auf ein abstraktes Datenmodell für kontinuierliche Medien. Das Datenmodell ist eine eigenständige Weiterentwicklung der Ansätze von [Herrtw91] und [Gibbs94] und kann auch zur Realisierung der Komponenten verwendet werden. Multimediadaten wurden zunächst auf zwei Ebenen als Sequenz und Sequenzelemente modelliert. Daraus lassen sich bereits einige Funktionen auf den Daten ableiten, die von den Bausteinen realisiert werden müssen. Kennzeichnend für die Sequenzelemente ist, daß sie die Zeitparameter Zeitpunkt und Dauer besitzen und damit eine explizite Integration der Zeit in das Datenmodell realisieren. Aus diesen Parametern der Elemente können auch für die Sequenz die Parameter Zeitpunkt und Dauer abgeleitet werden. Somit könnte eine Sequenz selbst wieder Element einer Sequenz werden. Da diese Sequenzen von Sequenzen aber zum Teil schwer zu handhaben sind und zum Aufbau von sehr komplexen Verschachtelungen verleiten, wird in dieser Arbeit eine andere Erweiterung der Datenhierarchie, eine Liste, vorgestellt. Diese Erweiterung führt nur eine weitere Hierarchieebene oder Granularitätsstufe ein, ist aber durch die vorgegebenen Funktionen gleichmächtig wie die Verschachtelung der Sequenzen, im Operationsablauf aber leichter nachzuvollziehen. Die Liste repräsentiert die gröbste Granularitätsstufe. Diese ist mit der Titelfolge einer Schallplatte oder einer CD vergleichbar. Die einzelnen Teile haben zueinander nur eine lose Ordnung. In der ersten Verfeinerung der Granularität wird in jedem einzelnen Listenelement eine strenge zeitliche Ordnung gefordert; ein Listenelement ist eine Sequenz. In der zweiten Stufe der Verfeinerung, der Unterteilung der Sequenzen, treten die bereits bekannten Se quenzelemente auf. Die Daten werden im Ticker-Schrittgeber-Modell interpretiert. Dieses Modell erhält zwei Zeitebenen, den Ticker als Bezugssystem der Funktionen untereinander und den Schrittgeber als Steuerung der einzelnen Funktionen. Ein zweistufiges Uhrenmodell mir festgesetzten Operationen und Uhrenbeziehungen wird in dieser Arbeit neu eingeführt. Die Beziehung zwischen Schrittgeber und Ticker ist, daß ein Schritt nach einer bestimmten Anzahl von Ticks erfolgt. Der Startwert des Tickers kann frei gewählt werden, ebenso der Startwert des Schrittgebers. Für den Schrittgeber bestimmt sein Start-Tick, wann er beginnt fortzuschreiten. Ein Schrittgeber ist mit genau einer Sequenz verbunden, deren Start-Schritt beschreibt, bei welchem Schrittwert das erste Sequenzelement gültig wird. Die Start-Zeitpunkte der Elemente und ihre Dauern werden in Schritten gemessen. Das Datenmodell für Multimedia wurde in [Fritzsche95] veröffentlicht. Implementierungen Als Grundlage für die Entwicklung der Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen wurden die Funktionen auf den Medien herangezogen. Diese sind in ihren einfachsten Formen die Grundfunktionen Perzeption, Präsentation und Speicherung der Medien, wobei die Speicherung in die Funktionen Schreiben in den Speicher und Lesen aus dem Speicher geteilt wird. Die durch die Perzeption festgelegten, oder künstlich erzeugten Mediendaten können zwischen den einzelnen Funktionen übertragen werden. Eine Bearbeitung der Daten ist beim Austausch zwischen den Funktionen möglich. Die Veränderung der Daten und ihr Bezug zu den Grundfunktionen wird durch die Verarbeitungsfunktionen der Typen f 1 bis f 5 beschrieben. Die Funktionen werden durch Operationen gesteuert, die aus dem Datenmodell abgeleitet werden. Insbesondere wird so auch die explizite Veränderung der Zeitparameter möglich. Somit bietet das Datenmodell eine geeignete Grundlage für jede Art der Verarbeitung kontinuierlicher Medien. Das entwickelte Modell unterstützt die Anwendungserstellung durch objektorientierte Ansätze auf den Ebenen der Konzeption, der Anwendungsspezifikation und der Komponentenentwicklung. Konzeptionell bietet das Funktionenmodell die schnelle und übersichtliche Darstellung der Anwendung. Die aus dem Funktionenmodell ableitbare Anwendungsspezifikation unterstützt die weitere Entwicklung durch Anwendungs- und Komponentenschablonen, sowie durch die vorgefertigte und erweiterbare Hierarchie der Schnittstellen und durch die Bibliotheken für Standardbausteine. Die Verwendung dieser Elemente der Anwendungsspezifikation läßt sich teilweise automatisieren. Das Ergebnis der Anwendungsspezifikation ist eine Menge von Komponenten, die alle vollständig spezifiziert sind. Diese Komponenten sind die funktionsorientierten Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen. Im ersten Schritt wurde das vorgestellte Datenmodell mit seinen Operationen in einer objektorientierten Programmiersprache (C [Lipp91]) implementiert [Braun92]. Darauf aufbauend wurden verschiedene Anwendungsfunktionen und Normalisierungsoperationen entwickelt und für den Bereich Audio realisiert [Bast93]. Die von den Funktionen auf kontinuierlichen Medien abgeleiteten Bausteine werden, wie in der vorliegenden Arbeit ausführlich dargestellt, als Komponenten verteilter Anwendungen realisiert. Aus den verschiedenen Realisierungsebenen sollen hier zwei Beispiele hervorgehoben werden. Zunächst wird auf die Komponentenrealisierung eingegangen; danach folgt die Realisierung von Tickern und enger Kopplung. Diese beiden Punkte stellen zentrale Aufgaben des Ansatzes dar. Realisierung von Komponenten Die Realisierung der Komponenten gliedert sich in zwei Abschnitte. Der erste Abschnitt ist die Zerlegung einer Komponente in Standardobjekte nach [Zimm93]. Die Standardobjekte entstammen Kommunikationsklassen, Stub- und Dispatcherklassen, Anwendungsklassen und Kooperationsprotokollklassen. Die Objekte der Anwendungsklassen realisieren die Anwendungsfunktionalität der Komponente. Das Ausprogrammieren dieser Objekte stellt den zweiten Abschnitt der Komponentenrealisierung dar. Dazu liefert das entwickelte Datenmodell die Programmierunterstützung. Zur Abbildung der Spezifikationskonstrukte der Komponenten auf Implementierungskonstrukte wird in [Zimm93] eine Methode vorgestellt, die die unterschiedlichen Konstrukte für Schnittstellen, Kommunikationskontexte und Komponenten auf Klassen und Objekte abbildet. So entsteht eine Klassenhierarchie von C Klassen [Lipp91] für kommunikations-, anwendung-s und managementorientierte Objekte. Weiterhin wird in [Zimm93] ein Verfahren vorgestellt, durch das in Abhängigkeit von den Eigenschaften einer Komponente parallel ablaufende Datenflüsse in ein System von leichtgewichtigen Prozessen (Threads) transformiert werden können. Als Resultat gewinnt man eine modulare Softwarearchitektur der Komponente, die sich aus interagierenden Objekten und zugehörigen Threads zusammen setzt. In [Zimm93] werden folgende Objektklassen unterschieden: . Kommunikationsklassen . Stub- und Dispatcherklassen . Anwendungsklassen . Kooperationsprotokollklassen. Eine elementare Objektarchitektur aus diesen Klassen ist in Abbildung 54 dargestellt. Es gibt jeweils eine Realisierung für eine Supplier-Komponente und eine Consumer- Komponente. Die Anwendungsobjekte können bezüglich ihrer Funktionalität in initiierende und akzeptierende Objekte eingeteilt werden. Im Falle unidirektionaler Schnittstellen sind die Anwendungsobjekte auf der Konsumentenseite (z.B. Benutzerkomponente) für die Initiierung von Methoden an Schnittstellenobjekten verantwortlich. Beispielsweise ist ein Anwendungsobjekt innerhalb der Benutzerkomponente für die Initiierung der Steueroperationen verantwortlich. Im Falle von interaktiven Komponenten [Zimm93] erfolgt dazu ein Benutzerdialog mit einem interaktiven Benutzer. Also realisiert innerhalb der Benutzerkomponente das Anwendungsobjekt einen solchen Benutzerdialog. Anwendungsobjekte auf der Konsumentenseite stellen somit typischerweise keine eigenen Methoden bereit, sondern bestehen lediglich aus einem Konstruktor. Auf der akzeptierenden Seite, den Anbieter (Supplier), realisiert ein Anwendungsobjekt die Operationen an einer Schnittstelle. Dazu wird eine Methode accept benötigt, falls ein verbindungsorientierter Kommunikationskontext zugrunde liegt. Diese Methode dient der Behandlung eingehender Verbindungswünsche. In [Alireza94] werden verschiedene Komponentenrealisierungen ausführlich vorgestellt. Die Realisierung der Ticker und Schrittgeber stellt die Einbettung der zeitbezogenen Komponenten in ihre (Betriebssystem) Umgebung dar. Ähnlich, wie eine Komponente über den Socketmechanismus Zugang zum Kommunikationssystem erhält, erhält eine zeitbezogene Komponente über den Ticker-Schrittgeber-Mechanismus Zugang zum Zeitbezugssystem. Denn die Schrittgeber beziehen sich auf Ticker, Ticker aber auf die Systemzeit. Da auch die Systemzeit als Takt zur Verfügung gestellt wird, können Ticker und Schrittgeber wegen ihrer ähnlichen Funktionalitäten aus einer gemeinsamen Zeitgeberklasse abgeleitet werden. Im Anhang C ist die Deklaration dieser gemeinsamen Klasse angegeben. In einer Anwendung beziehen sich die Schrittgeber verschiedener Komponenten auf einen gemeinsamen Ticker. Dieser Ticker liegt in der Systemumgebung der den Komponenten gemeinsamen interaktiven Benutzerkomponente. Die interaktive Benutzerkomponente verteilt die Ticks über die Steuerschnittstellen an die Komponenten und realisiert so die enge Kopplung der Komponenten. Bei einer Tickrate von 600 Hz ist es nur innerhalb eines Systems sinnvoll jeden Tick als Ereignis zu verteilen. Anstatt nun zu jedem Tick ein Ereignis zu verteilen werden bei der Tickverteilung Tickwerte mit fester Rate verteilt, wobei diese Rate in die Größenordnung der Schritte fällt. Um die Übertragungsraten gemäß den Anforderungen an der Steuerschnittstelle klein zu halten, wird zu jedem Schritt nur ein Teil (1 Byte) des Tickwertes übertragen. Begonnen wird mit der Übertragung des höchstwertigen Bytes, so daß im letzten Schritt einer Tickerübertragung mit dem letzten Byte der genaue aktuelle Tickwert übertragen wird. Ähnliche Verfahren werden bereits bei anderen Synchronisations verfahren verwendet. Eine genaue Beschreibung sowie die Kodierung für die verschachtelte Übertragung von Tickwerten und SchnittstellenAufrufen wird in [Hesme93] vorgestellt. Weitere Entwicklung Zur Realisierung verteilter multimedialer Anwendungen, muß man die einzelnen verteilten Komponenten bestimmen und ihre Funktion beschreiben. Die Komponenten tauschen unter einander Steuerungsinformationen und Multimediadaten aus. Diese Daten und das beim Austausch verwendete Protokoll sollten allgemein standardisiert sein, um den Zusammen schluß heterogener Systeme zu ermöglichen. In der vorliegenden Arbeit wurde gezeigt, wie sowohl die Daten als auch das Zusammenspiel der Komponenten festgelegt werden können. Obwohl alle Geräteklassen und Geräte funktionen sowie verschiedene Werkzeuge entwickelt wurden, und das vorgestellte Modell die gesamte Entwicklung verteilter multimedialer Anwendungen unterstützt, ist dieses große Gebiet noch lange nicht erschöpfend behandelt. Eine Erweiterung der Managementschnittstellen und die Realisierung von komplexen Werkzeugen sind die vordringlichsten Aufgaben. Damit entsteht ein mächtiges Entwicklungswerkzeug für Multimediaanwendungen. Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen Eine weitere Aufgabe ist die genauere Untersuchung der Nebenbedingungen, die zur Unterscheidung der Funktionen der Typen f 1 bis f 5 führten. Aus diesen Untersuchungen sowie aus den Ergebnissen der Ticker- und Schrittgeber-Realisierung lassen sich dann genauer spezifizierte Anforderungen an die Betriebs- oder Kommunikations-Systeme ableiten.
Ziel der Arbeit war es ein Cochlea-Implantat zur mehrkanaligen chronischen Elektrostimulation des Nervus cochlearis der kongenital gehörlosen weißen Katze zu entwickeln, um damit einen Beitrag zur Grundlagenforschung der zentralen Hörbahnreifung und der hierbei wichtigen kritischen Entwicklungsperioden zu leisten. Dazu wird das letztendlich mit fünf getrennt ansteuerbaren Elektrodenflächen versehene Implantat in einer Operation in die Scala tympani der meist 12 - 15 Wochen alten, gehörlosen Katzen eingesetzt und diese im Anschluß daran für etwa sechs bis acht Monate chronischen neurophysiologischen Experimenten unterzogen. Die hier geleistete Arbeit wurde nötig, da die am Markt erhältlichen, kommerziellen Humanelektroden aufgrund der für Tierversuche mangelnden mechanischen Belastbarkeit ungeeignet sind. Eine für die University of Melbourne aus der NUCLEUS®-22-Elektrode weiterentwickelte Feline-Version (Shepherd, 1993; Xu et al. 1997) der australischen Firma NUCLEUS Ltd. ist kommerziell nicht verfügbar. Im Rahmen der in den folgenden Kapiteln dargelegten theoretischen Überlegungen und Entwicklungsstufen wurde letztendlich in einem Kompromiß zwischen idealem Design und der technischen Realisierbarkeit ein (5 1)- Implantat mit den geforderten elektrischen und mechanischen Eigenschaften entwickelt (siehe Abb. 1). Dieses besteht aus einer Elektrodenspitze in Form einer Goldkugel und vier separaten, durch Silikonringe voneinander getrennten Golddrahtringen. Die Kontaktierung dieser Elektrodenflächen erfolgt rein mechanisch mittels teflonisolierter 7-fach Edelstahllitzen, die bis zur erforderlichen Steckverbindung zum Signalprozessor in einem Medical-Grade-Silikonschlauch geführt werden. Die Zuleitung der indifferenten Elektrode, die in ihrem Aufbau der Implantatspitze gleicht und aus einer etwas größeren Goldkugel besteht, wird ab etwa 3/5 der Länge in einem parallel gelegenen Schlauch geführt. Dadurch kommt sie nach erfolgter Implantation im Nackenbereich der Katze zu liegen. Beide Schläuche verlaufen subcutan bis in die Schulterblattregion und werden hier durch eine transcutane Öffnung zu dem in einer Art Pullover am Rücken getragenen Signalprozessor geführt. Alle Entwicklungsstufen wurden jeweils elektrisch und mechanisch in vitro getestet und zum Teil anschließend implantiert. Dabei kam es bei den ersten implantierten Versionen aufgrund mangelnder mechanischer Dauerbelastbarkeit immer wieder zu Beeinträchtigungen der chronischen neurophysiologischen Experimente. Diese Probleme sind mit der Version "5 1-Edelstahl an Gold geknotet" behoben worden, und der bis jetzt mit dieser Technik einzige Ausfall einer Elektrodenfläche beruhte auf einem Litzenbruch der betreffenden Edelstahlzuleitung. Eine Erweiterung auf sechs Elektrodenflächen im intracochleären Bereich ist möglich, weitergehende Entwicklungswünsche bedürften dann jedoch der Verwendung neuer Materialien und Techniken.
Hämosiderinbeladene Alveolarmakrophagen in der bronchoalveolären Lavage pädiatrischer Patienten
(1998)
Idiopathische pulmonale Hämosiderose (IPH) ist eine seltene Erkrankung unklarer Ätiologie, die hauptsächlich Kinder und Jugendliche betrifft. Pulmonale Hämorrhagie ist in Assoziation mit diversen respiratorischen und systemischen Krankheiten beschrieben (Systemischer Lupus Erythematodes, Goodpasture Syndrom). Eine frühe Diagnose der pulmonalen Hämorrhagie ist von großer Bedeutung, da die in Frage kommenden Erkrankungen progrediente und letale Verläufe nehmen können. Die bronchoalveoläre Lavage (BAL) ist die Methode der Wahl, um hämosiderinbeladene Makrophagen nachzuweisen und mögliche Ursachen zu diagnostizieren (Infektionen, maligne Prozesse). Studie: Es wurden 64 bronchoalveoläre Lavagen hinsichtlich des Hämosideringehaltes ausgewertet und bezüglich einer möglichen differentialdiagnostischen Bedeutung in der Pädiatrie untersucht. Da in unserer Kontrollgruppe wesentlich weniger Hämosiderin nachweisbar war als bisher beschrieben, wurde ein neuer Hämosiderin-Score für pädiatrische Patienten erstellt. Ergebnisse: Weder bei Patienten mit pulmonaler Symptomatik auf dem Boden eines gastroösophagealen Refluxes, noch bei Patienten mit chronischen Lungenkrankheiten anderer Genese wurden erhöhte Hämosiderin-Werte festgestellt. Schlußfolgerung: Da bei Kindern erhöhte Hämosiderin-Score in Assoziation mit chronischen pulmonalen Erkrankungen nicht gefunden wurden, sind auch nur leicht erhöhte Hämosiderin- Scores als möglicher Hinweis auf eine ernste Systemerkrankung anzusehen. Fallbeispiel: Über ein Kleinkind mit idiopathischer pulmonaler Hämosiderose bei einer gastroösophagealen Refluxerkrankung wird berichtet.
Die AICD-Implantation ist heute Therapie der Wahl zur Behandlung von Tachyarrhythmien bei Hoch-Risiko- Patienten nach überlebtem Herztod (1,2). Bezüglich einer differenzierten AICD-Therapie ist es hierbei von großem Interesse, ob die zur Implantation führende Rhythmusstörung, also Kammerflimmern oder ventrikuläre Tachykardie, Aussagen über Art und Häufigkeit von Rezidiven zulassen. Hinsichtlich der Inzidenz von therapiebedürftigen Tachyarrhythmien zeigt sich in unserer Patientenpopulation kein Unterschied zwischen Patienten mit Kammerflimmern und solchen mit einer ventrikulären Tachykardie als primärem Rhythmusereignis. Bei der Unterscheidung dieser Patientenpopulation muß in Betracht gezogen werden, daß dem Kammerflimmern zwar oft eine (nicht-dokumentierte) degenerierte ventrikuläre Tachykardie vorausgeht, monomorphe ventrikuläre Tachykardien und Kammerflimmern aber ansonsten unterschiedliche elektrophysiologische Charakteristiken aufweisen. So zeigt die genaue Analyse der gespeicherten intrakardialen Elektrogramme und Therapien, daß es bei Patienten mit Kammerflimmern signifikant häufiger zu Schockabgaben bei Kammerflimmern kam. Sollten sich diese Daten in größeren Patientenpopulationen bestätigen, wäre zu überlegen, ob Patienten mit Kammerflimmern als primäres Rhythmusereignis mit den weniger komplexen und kostengünstigeren AICD ohne ATP-Funktion versorgt werden könnten. Der Vergleich der Patienten mit der kardialen Grunderkrankung KHK und DCM zeigt weder einen Unterschied in der primären Rhythmusstörung noch im weiteren klinischen Verlauf. Wie in zahlreichen klinischen Studien belegt, ist auch in unserer Population eine stark eingeschränkte linksventrikuläre Ejektionsfraktion < 35 % der stärkste positive Prädiktor für das Auftreten einer erneuten Rhythmusstörung. Zusammenfassend haben also für identifizierte Hoch-Risiko-Patienten nach überlebtem Herztod weder die primäre Tachyarrhythmie noch die zugrundeliegende Herzerkrankung einen prädiktiven Wert für die Inzidenz von Tachyarrhythmieepisoden. Patienten mit Kammerflimmern als primärem Rhythmusereignis scheinen jedoch weniger vom ATP zu profitieren.
Die Fundmeldungen in Band 24 von Botanik und Naturschutz in Hessen tragen die laufenden Nummern 1750 bis 1872 und stammen von Rolf Angersbach, Kurt Baumann, Ralph Baumgärtel, Dieter Bickler, Dirk Bönsel, Wolfgang Ehmke, Christian Feuring, Thomas Gregor, Volker Holzgreve, Karsten Horn, Heinz Kalheber, Gerwin Kasperek, Matthias Kellner, Detlef Mahn, Hans Reichert, Bernd Sauerwein, Hjalmar Thiel, Bärbel Wellmann und Jochen Wulfhorst.