Refine
Year of publication
Document Type
- Doctoral Thesis (3642) (remove)
Language
- German (3642) (remove)
Has Fulltext
- yes (3642) (remove)
Is part of the Bibliography
- no (3642)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (10)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1401)
- Biochemie und Chemie (447)
- Biowissenschaften (409)
- Pharmazie (237)
- Physik (216)
- Biochemie, Chemie und Pharmazie (99)
- Gesellschaftswissenschaften (96)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
Ziel der Arbeit war es, die strukturellen Eigenschaften einer flüssigen Vorstufe einer Mullitkeramik mit Hilfe der NMR-Spektroskopie zu untersuchen. Die fertige Keramik soll später im Triebwerksbau in der Luft- und Raumfahrttechnik eingesetzt werden. Dazu wurden NMR-Messungen an den Kernen 1 H , 13 C, 27 Al und 29 Si durchgeführt. Als Experimente kamen dabei sowohl eindimensionale als auch zweidimensionale Methoden der NMR-Spektroskopie zum Einsatz. Zur Bildung von Strukturhypothesen wurden verschiedene Modellsysteme im Rechner simuliert. Eine besondere Herausforderung bei der Messung und Interpretation der Spektren stellte die hohe Viskosität der verwendeten Proben dar. Diese hohe Viskosität der Proben führte zu einer starken Verbreiterung der Resonanzlinien in den NMR-Spektren und zu den gezeigten Schwierigkeiten bei den Diffusionsmesungen. Die in der Literatur beschriebene strukturelle Vielfalt der Aluminiumalkoholate konnte nicht nur, wie in der Literatur bekannt, mit Hilfe von Aluminiumspektren, sondern auch über Protonen und Kohlenstoffspektren nachgewiesen und beschrieben werden. Insbesondere konnten Struktureinheiten jenseits der bekannten dimeren, trimeren und tertameren Strukturen der Aluminumalkoholate beschrieben werden. Das trimere Aluminiumsekundärbutylat steht mit einer dimeren Form im Gleichgewicht. Durch Temperaturerhöhung wird dieses Gleichgewicht in Richtung der dimeren Form verschoben. Im Falle der Verbindung [Al(OBu) 2n (iP rEtO) n ] konnte die direkte Nachbarschaft der 2-Butanol und iso-Propoxyethanolreste im Komplex über Signale im ROESY-Spektrum aufgezeigt werden. Es konnte eine sehr exakte und reproduzierbare Methode zur Bestimmung von Diffusionskonstanten in viskosen, gelartigen Lösungen mittels NMR-Messungen gefunden und erfolgreich auf die zu beobachtenden Systeme adaptiert und verwendet werden. Nur mit Hilfe dieser Methode war es möglich, den supramolekularen Charakter der Vorstufen einer Mullit-Keramik nachzuweisen. Insbesondere konnte gezeigt werden, daß das vorgestellte System eine hochgeordnete Struktur aufweist, und daß die einzelnen molekularen Einheiten über nicht kovalente Wechselwirkungen miteinander verbunden sind.
Elektron-Zyklotron-Resonanz-Ionenquellen dienen der Erzeugung von hochgeladenen Schwerionen. Die Erzeugung und Extraktion der Schwerionen beruht auf dem komplexen Zusammenspiel von physikalischen Prozessen aus der Atom, Oberflächen und Plasmaphysik sowie der Elektrodynamik. In dieser Arbeit werden grundlegende physikalische Prozesse in EZR-Ionenquellen experimentell untersucht, welche auf Grund der Komplexität bislang nicht vollständig verstanden sind. Als Schwerpunkt werden insbesondere die häufig angewendeten Methoden zur Steigerung der Ausbeute an hochgeladenen Ionen erforscht. Hierzu zählen die negativ vorgespannte Scheibe (eine Elektrode in axialer Nähe des Plasmas, biased Disk), die Beschichtung der Plasmakammerwände mit Isolatoren (Wall coating) und die Gasbeimischung von leichteren Gasen zum eigentlichen Arbeitsgas. Die Untersuchungen wurden an der Frankfurter EZR-(VE)RFQ-Beschleunigeranlage durchgeführt und mit aktuellen Theorien sowie Messungen an anderen EZR-Ionenquellen verglichen. Zur Diagnose wird erstmals die negativ vorgespannte Scheibe im gepulsten Betrieb eingesetzt, um die dynamische Auswirkung dieser Scheibe auf den Ionisationsprozeß und die Ionenextraktion zu studieren. Als erstaunlichstes Ergebnis wird die bisher vermutete und in der Literatur dargestellte physikalische Wirkungsweise der biased Disk, nämlich die Erhöhung der Plasmadichte und eine Verbesserung des Ionisationsprozesses, widerlegt. Dieses Ergebnis wird durch Messungen der Quellenemittanz, des dynamischen Ionisationsverlaufes durch Injektion von kurzen Neutralteilchenpulsen mittels Laserablation, der Spektroskopie der Röntgenbremsstrahlung und der optischen Spektroskopie des sichtbaren Lichtes bestätigt. Als neue Hypothese für die physikalische Auswirkung der negativ vorgespannten Scheibe auf die Ausbeute an hochgeladenen Schwerionen wird eine axiale Elektronenverteilung angenommen. Diese entsteht aus axial oszillierenden Elektronen, welche in einem Potentialtopf zwischen der negativ vorgespannten Scheibe und dem Extraktionsbereich der Ionenquelle eingeschlossen sind. Radial werden diese Elektronen durch die Magnetfeldlinien der beiden Magnetspulen geführt. Diese Elektronenverteilung beeinflußt die Ionendiffusion aus dem EZR-Plasma und die Ionenstrahlformierung im Extraktionsbereich der Ionenquelle positiv. In dieser Arbeit wird zudem gezeigt, daß die gezielte Steuerung der Ionenextraktion durch die vorgespannte Scheibe (biased Disk) mit sehr geringem Aufwand möglich ist. Insbesondere durch Pulsung der Disk-Spannung ist die Extraktion von gepulsten Ionenstrahlen aus einer EZR-Ionenquelle mit bislang nicht erreichten Wiederholungsfrequenzen möglich (bis einige 10 kHz). Die Ionenpulse weisen zudem höhere Intensitäten im Vergleich zur kontinuierlichen Extraktion auf. Eine weitere angewendete Diagnosemethode ist die Injektion von kurzen Pulsen an Neutralteilchen in das EZR-Plasma mit dem Ziel, die Ionenerzeugung und die Ionenextraktion zeitaufgelöst zu studieren. Die Neutralteilchenpulse werden mit Hilfe der Laserablation erzeugt und im EZR-Plasma sukzessive ionisiert. Das zeitliche Verhalten der extrahierten Ionen gibt Ausschluß über die Dynamik des Ionisationsprozesses, den Ioneneinschluß und die Extraktion der Ionen. Hierbei werden die Auswirkungen der Mikrowellenleistung, des Quellengasdruckes, der Gaszusammensetzung und der negativ vorgespannten Scheibe auf die Erzeugung von hochgeladenen Ionen in einer EZR-Ionenquelle untersucht. Auch diese Messungen werden durch die Untersuchung der Röntgenbremsstrahlung und der optischen Spektroskopie des sichtbaren Lichtes vervollständigt. Außerdem wird der Einfluß der injizierten Neutralteilchenpulse auf das bestehende Plasma in der Ionenquelle gemessen. Neben der Plasmadiagnose durch die Injektion von Neutralteilchenpulsen mittels Laserablation wurde auch die Erzeugung von gepulsten Strahlen hochgeladener Ionen verschiedenster Festkörperelemente untersucht. Es wird gezeigt, daß durch einen einfachen Versuchsaufbau hochgeladene Ionen von nahezu allen Festkörpern erzeugt werden können. Durch den Einsatz von speziellen Aluminium-Hohlzylindern mit metalldielektrischer Beschichtung (AlAl 2 O 3 ) in der Plasmakammer der EZR-Ionenquelle (Wall coating) und der dadurch gezielten Beeinflussung der Plasma-Wand-Wechselwirkung kann die Ausbeute an hochgeladenen Schwerionen (z. B. Ar 16 ) um bis zu einem Faktor 50 gesteigert werden. Die in dieser Arbeit angewandten Diagnosemethoden und das dadurch erzielte bessere Verständnis der physikalischen Prozesse und der Dynamik im EZR-Plasma ermöglichen die Erhöhung der Ausbeute an hochgeladenen Ionen, die effektive Erzeugung von hochgeladenen Festkörperionen und die Extraktion von gepulsten Ionenstrahlen mit bisher nicht erreichten Wiederholungsfrequenzen.
In diesen kurz bis mittelfristig erhobenen Daten hatte sich das LCS Kniegelenkssystem als Kniegelenkersatz bewährt. Die Indikation war breit zu stellen. Achsenabweichungen in der Frontalebene bis 30° und Instabilitäten des Seitenbandapparates bis 15° konnten mit dieser Endoprothese korrigiert werden. Die chronische Polyarthritis, auch mit kompletten Befall des Bewegungssystems, mit den Folgen von Muskelschwäche, Bänderdestruktion und Osteoporose wurde erfolgreich mit diesem Implantat versorgt. Gelenknahe Destruktionen mit Schwächung des implantattragenden Knochens durch starke Osteoporose oder zystische Defekte, ließen sich unter Auffüllung mit autologer Spongiosa und Verankerung des Implantates mit Zement operativ beherrschen. Die Verwendung der zementfrei zu implantierenden Version mit poröser Oberfläche zeigte radiologisch enge Knochenimplantatverbindung. Die Ergebnisse unterschieden sich kumulativ von den zementierten Fällen kaum. Die knochenresektionssparende Implantationstechnik bot bei einem notwendig werdenden Ausbau breiten Rückzug auf andere Modelle. Bei den implantatkritischen Komponenten, Tibiaplateau und Retropatellarersatz, wurde zur Verankerung der tibialen Komponente ein zentraler Fixationsstem verwendet. Nach dem Prinzip der low friction sind Plateau und rotierende Patella "metalbacked". Allerdings wurde wegen des Verdachts eines KnochenMetall Kontaktes bei der rotierenden Patellaversion zuletzt die Versorgung mit einem einfachen retropatellaren Knopf favorisiert. In den fünf Fällen bikompartimenteller Versorgung zeigte sich ein ausgezeichnetes Ergebnis hinsichtlich Schmerzreduktion und Fähigkeit zum Treppensteigen. Die radiologische Auswertung zeigte keine Korrelation zwischen Saumbildung und klinischem Resultat. Eine durchgehende Saumbildung mit Positionsänderung der Prothese, also radiologische Lockerung, fand sich nicht. Ebenso zeigte sich keine Dislokation der Polyäthylenlager an Patella und Tibia. Die Rate revisionsbedürftiger Fälle lag bei 10%. Darunter fielen drei TEPWechsel und drei Fälle operativer Lysen bei fibröser Steife. Bei der klinischen Untersuchung des Patientengutes war in keinem Fall eine massive dorsale Subluxation in 90° Beugung bzw. diesbezüglich eine Beschwerdeangabe durch den Patienten zu erheben. Ebenso zeigte sich keine massive Aufklappbarkeit bei Valgus oder Varusstreß. Die Achsenverhältnisse konnten in fast allen Fällen befriedigend wiederhergestellt werden.
In dieser Arbeit wurde das Hauptkapsidprotein VP1 des murinen Polyomavirus zum Transfer von DNA in eukaryontische Zellen eingesetzt. Das murine Polyomavirus wird der Familie der Papovaviridae zugeordnet. Die Viren dieser Familie sind durch nichtumhüllte, ikosaedrische Kapside gekennzeichnet. Die äußere Hülle wird aus 72 VP1Pentameren gebildet, an die sich intern je ein VP2 bzw. VP3Molekül anlagert. Das Strukturprotein VP1 ist aufgrund folgender Eigenschaften für eine DNABeladung und Transfektion in eukaryontische Zellen prädestiniert: 1. Es wurde am NTerminus von VP1 eine DNABindungsdomäne identifiziert. 2. Es konnte am NTerminus von VP1 eine Kernlokalisationssequenz nachgewiesen werden. 3. Es wurde die exakte Rezeptorerkennungssequenz innerhalb der VP1Struktur bestimmt. 4. VP1 ist in der Lage, nach einer rekombinanten prokaryontischen Expression unter Hochsalzbedingungen zu Kapsoiden zu assemblieren. In dieser Arbeit wurde ein rekombinantes, in E. coli exprimiertes VP1Protein verwendet und hinsichtlich seiner DNABindung und der Fähigkeit zum DNATransfer in eukaryontische Zellen charakterisiert: 1. Das vorhandene Aufreinigungsprotokoll konnte optimiert werden. Die Proteinausbeute aus 1 l Bakteriensuspension wurde von 1,8 mg auf 3 mg gesteigert. Gleichzeitig wurde die Kontamination mit Fremdprotein deutlich reduziert. Es konnten die Ergebnisse hinsichtlich der Kapsoidassemblierung unter Hochsalzbedingungen reproduziert werden. 2. Cytotoxizitätstests in NIH 3T3Zellen belegten, daß die getesteten VP1Kapsoid Konzentrationen (ca. 25 µg/ml) keine signifikanten Anzeichen einer toxischen Reaktion zeigten. 3. Der Vergleich zwischen dem Kapsoid ohne HisTag und mit HisTag (Nterminale Klonierung eines 6xHisAffinitätsTags) zeigte, daß durch den HisTag die Bindung von einzelsträngiger DNA an das Kapsoid von 37% auf 55% erhöht werden konnte. Es wurde aber auch eine konzentrationsabhängige Aggregation des VP1Proteins mit HisTag beobachtet. In späteren Arbeiten wurde aus diesem Grund bevorzugt das VP1Protein ohne HisTag eingesetzt. 4. In dieser Arbeit konnte zum ersten Mal eine Transfektion von eukaryontischen Zellen, in diesem Fall den NIH 3T3Zellen, mit rekombinanten VP1Kapsoiden nachgewiesen werden. Nach Beladung von VP1Kapsoiden mit fluoreszenzmarkierter einzelsträngiger DNA konnte eine eindeutige intrazelluläre Fluoreszenz in den NIH 3T3Zellen beobachtet werden. Diese Fluoreszenz war diffus im Cytoplasma und distinkt im Nukleus lokalisiert. 5. Die biologische Aktivität der über VP1 in die Zelle transportierten einzelsträngigen DNASequenzen wurde mit einer Reduktion der bcl2Expression in MOLT4 Zellen überprüft. Die VP1Kapsoide zeigten im Vergleich zu DOTAP als Transfersystem und Aufnahme freier einzelsträngiger DNA die höchste Antisense Wirkung. Die verwendeten modifizierten Oligodesoxynukleotide zeigten jedoch eine nichtsequenzspezifische Reduktion des Proteinlevels. 6. Nach Beladung von VP1Kapsoiden mit PlasmidDNA unter Hochsalzbedingungen konnte in Transfektionsversuchen der erfolgreiche Transport der verwendeten PlasmidDNA in den Nukleus der Zielzelle über die Expression des Markergens (EGFP) nachgewiesen werden. 7. Im Hinblick auf eine Verbesserung der Transfektionseffizienz wurde die Beladung von VP1 mit DNAKondensaten getestet. Nach Einsatz von Histonen für eine DNAKomplexierung wurden Partikel detektiert, die vor allem aufgrund ihrer Größe nicht für eine Beladung mit VP1 geeignet waren. Als ein zweites Kondensationsagenz wurden polykationische Polyamidoamine, auch Dendrimere genannt, untersucht. Nach Einsatz von kondensierter, fluoreszenzmarkierter doppelsträngiger DNA konnte zusammen mit VP1Pentameren eine wesentlich stärkere Fluoreszenz innerhalb des Cytoplasmas der transfizierten Zellen im Vergleich zur Transfektion von DendrimerDNAKondensaten ohne VP1 nachgewiesen werden. Es konnte jedoch in keinem getesteten Kondensationsansatz in Anwesenheit von VP1 ein Transport der eingesetzten PlasmidDNA zum Nukleus der eukaryontischen Zellen beobachtet werden.
Typ 1 Diabetes mellitus ist ein durch Insulinmangel bedingter Defekt der Glukoseverwertung, der durch eine autoimmune Zerstörung der pankreatischen betaZellen verursacht wird. Als häufigste Autoimmunerkrankung Jugendlicher und junger Erwachsener in den Industrienationen stellt sie durch ihre stetig steigende Inzidenz eine bedeutende medizinische und ökonomische Herausforderung dar. Etwa 50% des Risikos, an Typ 1 Diabetes mellitus zu erkranken, wird exogenen Faktoren zugeschrieben, für die anderen 50% macht man genetische Faktoren verantwortlich. Etwa die Hälfte des genetischen Risikos wird durch die HLARegion vermittelt. Neben seiner "klassischen" Rolle im Rahmen der Calcium und Phosphat-Homeostase wirkt Vitamin D auch antiproliferativ und immunmodulierend. 1,25(OH) 2 D 3 inhibiert die Aktivierung von Lymphozyten, die Expression von HLA Klasse II-Molekülen und interagiert mit der Produktion von Zytokinen und Antikörpern. Tierexperimentell eignet sich Vitamin D zur Prävention von AutoimmunDiabetes, Thyreoiditis und Enzephalitis. Wichtige Komponenten des Vitamin D Endokriniums stellen die (monomorphen) ana und katabolen Enzyme des Vitamin D Stoffwechsels sowie der nukleäre Vitamin D Rezeptor (VDR; Chromosom 12q12q14) und das Vitamin D bindende Protein (DBP; Chromosom 4q11q13) dar. In der vorliegenden Arbeit wurden genetische Polymorphismen von VDR [FokI, BsmI, ApaI, TaqI] und DBP [(TAAA) n Repeat, StyI, HaeIII] im Rahmen einer Familienanalyse auf eine Assoziation mit Typ 1 Diabetes mellitus untersucht. Die Haplotypen der am 3'Ende des VDRGens gelegenen Polymorphismen BsmI, ApaI und TaqI waren mit Typ 1 Diabetes in der hier untersuchten, kaukasischen Population assoziiert. Das Bestehen einer Assoziation derselben 3'VDRPolymorphismen mit Typ 1 Diabetes bei Asiaten bestätigt die Ergebnisse dieser Arbeit. Während die Vererbungsmuster der Konditionierun gen hinsichtlich des Alters der Patienten, maternaler bzw. paternaler Transmission und CTLA Exon 1Genotypen nicht von den erwarteten Häufigkeiten abwichen, bestand ein deutlicher Unterschied für die Konditionierung entsprechend der HLADR/DQHaplotypen und eine grenzwertige Differenz für das Geschlecht der Patienten. Kein Abweichen von den erwarteten Vererbungshäufigkeiten wurde hingegen für die DBPPolymorphismen beobachtet. Auch hier ergab sich für die Konditionieungen entsprechend des Alters und des Geschlechts der Patienten sowie bezüglich maternaler bzw. paternaler Transmission und CTLA Exon 1Genotypen kein Unterschied zwischen den jeweiligen Subgruppen. Die Konditionierung nach HLADR/DQHaplotypen ergab ein grenzwertig signifikantes Abwei chen von den erwarteten Werten. Eine Assoziation von genetischen Polymorphismen des nukleären Vitamin D Rezeptors mit Typ 1 Diabetes mellitus legt funktionelle Unterschiede der VDRHaplotypen bei der Vermittlung der immunmodulatorischen Vitamin DWirkung nahe. Positive Assoziationsstudien von VDRPolymorphismen mit Osteoporose, diversen Malignomen und Psoriasis stützen diese Hy pothese indirekt. Da teilweise ''gegenteilige" Haplotypen ein erhöhtes DiabetesRisiko bei Asiaten und Kaukasiern vermitteln, scheinen die hier betrachteten Polymorphismen lediglich Marker einer mit ihnen im Linkage Disequilibrium stehenden, kausalen genetischen Variante zu sein. Die Unterschiede in der Vererbung der VDRHaplotypen an weibliche und männliche Patienten sowie die differentielle Transmission der VDRAllele entsprechend der HLADR/DQHaplotypen unterstreicht die genetische Heterogenität von Typ 1 Diabetes mellitus in der hier untersuchten kaukasischen Population. Vor dem Hintergrund des vielfältigen Einflusses von Vitamin D auf Faktoren, die am Entstehen von Typ 1 Diabetes und Autoimmunität beteiligt sind, erscheint ein für die VDRAs soziation kausaler Polymorphismus innerhalb dieses Rezeptorgens wahrscheinlicher als ein kausaler Polymorphismus außerhalb desselben. Seine herausragende Bedeutung bei der Vermittlung der immunmodulatorischen Eigenschaften von Vitamin D macht den nukleären Vitamin D Rezeptor zum potentiell interessanten ''Hebel" für eine medikamentöse Prävention und Therapie von Typ 1 Diabetes mellitus und anderen Autoimmunerkrankungen.
Hintergrund: Einer der wichtigsten Gründe für das Therapieversagen von Zytostatika ist die MDR von malignen Zellen. Deren Modulation mit sogenannten Chemosen sitizern scheint ein erfolgversprechender Therapieansatz zu sein, so daß zahlreiche in vitro Studien initiiert wurden. Jedoch beachten diese Studien nur selten den Effekt der Proteinbindung auf die zelluläre Aufnahme von Zytostatika und der Wirkung von Chemosensitizern. Der Vorhersagewert der in vitro Tests für die in vivo Effektivität steht somit zur Diskussion. Die Ziele dieser Untersuchung waren es deshalb a) die Bindungscharakteristiken des Anthrazyklins IDA in HS und Zellkulturlösungen zu bestimmen, b) den Effekt der Proteinbindung, sowie des Chemosensitizers RVRP und des AkutPhaseProteins AGP, auf die Aufnahme und Retention von IDA in eine humane HL60 Leukämiezellinie zu untersuchen und c) die Bedeutung der Proteinbin dung für die in vivoAktivität von Zytostatika und Chemosensitizern zu analysieren. Methoden: Die Proteinbindung von IDA wurde mit Hilfe der Gleichgewichtsdialyse in HS und gebräuchlichen Zellkulturlösungen bestimmt. Die Zellaufnahme und Retention von IDA wurde in einer sensiblen und einer Pgpexprimierenden, resistenten humanen Leukämiezellinie (HL60 und HL60Vinc), sowie in Lymphozyten gesunder Probanden untersucht. Die Versuchsbedingungen wurden durch verschiedene Inkubationsmedien und die Zugabe von RVRP und AGP variiert. Die IDA Konzentration wurde spektrophotofluorometrisch analysiert. Ergebnisse: In den untersuchten Inkubationsmedien variierte die freie Fraktion von IDA um mehr als 7fach von ungefähr 60% in 15% FCS/PBS zu nur 8% in HS. In den Zellinien HL60 und HL60Vinc war die zelluläre Aufnahme von IDA in dem Medium mit niedrigen Proteinkonzentrationen ungefähr dreimal höher als in HS. Die Bedeutung von Pgp für das Resistenzverhalten der Leukämiezellinie zeigte sich durch die erniedrigte Akkumulation von IDA in den resistenten Zellen. RVRP konnte in allen Medien die Differenz der IDA Aufnahme und Retention zwischen der sensiblen und der resistenten Zellinie aufheben. Jedoch konnte RVRP nicht den Effekt von hohen Proteinkonzentrationen auf die IDA Aufnahme ausgleichen. In Anwesenheit von AGP konnte sowohl in den Medien mit hohen als auch niedrigen Protein konzentrationen nur eine sehr geringe Chemosensitizerwirkung nachgewiesen werden. Das Akkumulationsverhalten der Lymphozyten glich der sensiblen HL60 Zellinie. Schlußfolgerung: Proteinbindungsphänomene können die Aktivität von Zytostatika und Chemosensitizern erheblich beeinflussen. So ist in vitro die Serumproteinbindung eine wichtige Determinante für die zelluläre Aufnahme von IDA. Der Modulationseffekt von RVRP reagiert weniger sensitiv auf Unterschiede in der Gesamtproteinkonzentration, allerdings kann er durch erhöhte AGP Konzentrationen, wie sie bei Tumorpatienten vorkommen, erheblich beeinflußt werden. Bei der Interpretation von in vitro funktionellen Tests der zytostatischen Effektivität und Chemosensitizerwirkung sollte daher die Serumproteinbindung berücksichtigt und Untersuchungen in HS einbezogen werden.
Die vorliegende Arbeit liefert einen Beitrag zum besseren Verständnis des stratosphärischen Transports. Dieser ist ein wichtiger Parameter im komplexen gekoppelten System der Stratosphäre, das neben dem Transport vor allem von Chemie und Strahlungshaushalt geprägt wird. Neben verschiedenen Modelliertechniken bietet die Messung langlebiger Spurengase das effektivste Werkzeug für Untersuchungen von stratosphärischen Transportprozessen. Daher wurde am Institut für Meteorologie und Geophysik an der Universität Frankfurt ein Instrument zur in-situ-Messung von Spurengasen entwickelt, das sowohl an Stratosphärenballonen als auch auf dem russischen Höhenforschungsflugzeug M-55 "Geophysica" Echtzeitmessungen von Spurengasmischungsverhältnissen durchführen kann. Der "High Altitude Gas Analy- ser" (HAGAR) ist in der Lage, mit einem Zwei-Kanal-Gaschromatographen die Mischungsverhältnisse von N 2 O, F12, F11 und Halon-1211 mit einer Zeitauflösung von 90 s und das von SF 6 alle 45 s zu bestimmen. Ein an die speziellen Gegebenheiten von Stratosphärenmessungen angepasster CO 2 -Sensor der Firma LI-COR erreicht eine Zeitauflösung von ca. 10 s. Im Rahmen dieser Arbeit wurden entscheidende Beiträge zur Entwicklung von HAGAR geleistet. Für die Steuerung des Instruments auf Basis eines Industrie-PCs wurde ein umfangreiches Softwarepaket entwickelt, das die zuverlässige vollautomatische Steuerung des Instruments, sowie eine komfortable Konfigurationsmöglichkeit bietet. Nach einem ersten Ballontestflug am 13.5.1998 wurde das Instrument vollständig neu aufgebaut, um einen Sensor zur Messung von CO 2 zu integrieren. Des Weiteren wurden eine Reihe von Verbesserungen und Anpassungen durchgeführt, die für den Betrieb an Bord der Geophysica notwendig waren. Im Zeitraum von Dezember 1998 bis Oktober 1999 nahm HAGAR an drei Messkampagnen teil. Im Rahmen von APE-ETC ("Airborne Platform for Earth Observation - Extensive Test Campaign") wurde das Instrument erstmals an Bord der Geophysica montiert und eingesetzt. Trotz einer Reihe von kleineren Schwierigkeiten erwies sich das HAGAR-Konzept als gut ge- eignet für den Einsatz an Bord eines Höhenforschungsflugzeugs. So konnten zumindest während drei von sechs Testflügen Daten aufgezeichnet werden. Im Februar/März 1999 war HAGAR Teil der Geophysica-Nutzlast während der Messkampagne APE-THESEO ("Airborne Platform for Earth Observation - The Contribution to the Third European Stratospheric Experiment on Ozone"), die Mahè/Seychellen als Basis nutzte. HAGAR konnte hier während ca. 30 Flugstunden Daten aufnehmen. Dabei konnte ein umfangreicher Datensatz vor allem im Bereich der tropischen Tropopausenregion gewonnen werden. Die Tropen sind von besonderer Bedeutung für den stratosphärischen Transport, unter anderem da hier der Haupteintrag von troposphärischer Luft in die Stratosphäre stattfindet. Der Untersuchung des antarktischen Polarwirbels in der Phase des maximalen Ozonabbaus war die Messkampagne APE-GAIA ("Airborne Polar Experiment - Geophysica Aircraft in Antarctica") gewidmet, die im September und Oktober in Ushuaia/Argentinien stattfand. Als südlichste Stadt der Erde bietet Ushuaia die beste geographische Lage, um den stratosphärischen Polarwirbel mittels Flugzeugmessungen zu untersuchen. HAGAR arbeitete zuverlässig während aller wissenschaftlichen Flüge und einem Testflug in Ushuaia. Zusätzlich konnte während sechs Transferflugetappen zwischen Sevilla und Ushuaia zumindest für einen Teil der Substanzen Daten aufgezeichnet werden. Insgesamt liegen für etwa 60 Flugstunden Daten vor, darunter auch erstmals ein hochaufgelöstes Vertikalprofil im Polarwirbel, dass von über 20 km Höhe bis hinunter zur Tropopausenregion reicht. Für ein neu entwickeltes Messinstrument wie HAGAR ist eine Validierung der Daten sehr wichtig. Da eine direkte Validierung durch parallele Messungen nicht möglich war, musste auf ältere, vergleichbare Datensätze zurückgegriffen werden, die anhand des troposphärischen Trends korrigiert wurden. Als Vergleich dienten Datensätze der in-situ-Gaschromatographen GhOST und ACATS, der kryogenen Luftprobensammler und des CO 2 -Instrumentes der Harvard University. Dabei zeigte sich stets eine gute bis sehr gute quantitative Übereinstimmung der Daten. Auch die Präzision der Messungen, die bereits endgültig ausgewertet wurden, sind sehr zufriedenstellend und zumindest vergleichbar mit denen von "etablierten" Instrumenten. So war die Präzision für N 2 O, F12 und F11 zumeist deutlich besser als 1 %. Für CO 2 konnte die Präzision für APE-GAIA auf 0,15 ppm bzw. 0,05 % verbessert werden. Die Präzision der vorläufigen Daten von Halon-1211 und SF 6 beträgt bisher etwa 5 %. Der im Jahre 1999 von HAGAR aufgenommene Datensatz bietet umfangreiche Möglichkeiten zur wissenschaftlichen Analyse. Nur exemplarisch sind daher die Punkte zu sehen, die in dieser Arbeit diskutiert werden. Das mittlere Alter der Luft kann als die Zeit beschrieben werden, die die Bestandteile eines Luftpakets im Mittel benötigten, um von der tropischen Tropopausenregion an seine aktuelle Position in der Stratosphäre zu gelangen. Zur Bestimmung des mittleren Alters der Luft werden Messungen von Spurengasen verwendet, die in der Stratosphäre konservativ sind und deren troposphärisches Hintergrundmischungsverhältnis einen zeitlich linear ansteigenden Trend aufweist ("Alterstracer"). HAGAR ist in der Lage, die Mischungsverhältnisse der beiden gebräuchlichsten Alterstracer CO 2 und SF 6 zu messen. Das Alterskonzept bietet eine einfach zu bestimmende Kenngröße für den stratosphärischen Transport, die im Gegensatz zu Mischungsverhältnissen direkt mit Messungen, die zu anderen Zeitpunkten gewonnen wurden, vergleichbar ist. Es konnte gezeigt werden, dass die erreichbare Genauigkeit der Altersbestimmung nicht von der Messgenauigkeit von CO 2 und SF 6 limitiert ist, sondern von der Abweichung der troposphärischen Trends vom (zeitlich linear ansteigenden) Ideal. Insbesondere im Fall von CO 2 wird dies deutlich, wobei die von HAGAR erreichte Messgenauigkeit für eine maximale Unsicherheit in der Altersbestimmung von ca. zwei Monaten ausreichen würde. Neben den saisonalen Schwankungen, die in mittleren Breiten ab ca. 16 km Höhe keine Rolle mehr spielen, sorgen vor allem die jährlichen Schwankungen dafür, dass die Altersbestimmung mit CO 2 momentan kaum besser als mit einem Fehler von etwa 0,7 Jahren durchgeführt werden kann. In den Tropen kann die Messung des CO 2 -Mischungsverhältnisses nicht direkt zur Altersbestimmung herangezogen werden. Durch die starke Vertikalbewegung in den Tropen kann das saisonale CO 2 -Signal im Vertikalprofil beobachtet werden. HAGAR konnte solche Profile während zweier Jahreszeiten (Februar/März bzw. Mitte September) aufzeichnen. Die Tropen sind in der Stratosphäre durch sogenannte Mischbarrieren für den horizontalen Transport gegenüber den mittleren Breiten abgegrenzt. Dies zeigt sich unter anderem in veränderten Tracer-Tracer-Korrelationen. Gealterte Luft aus den mittleren Breiten, die groÿteils bereits einmal die groÿräumige Brewer-Dobson-Zirkulation durchlaufen hat, wird jedoch zu einem geringen Maße erneut in den Bereich der tropischen Aufwärtsströmung eingemischt. Für die Gesamtverweilzeit von langlebigen Spurengasen in der Stratosphäre ist diese Einmischung von besonderer Bedeutung. Während nahezu aller Flüge von APE-THESEO (1° N - 19° S) ergaben die HAGAR- Daten eine kompakte F11-N 2 O-Korrelation; beim letzten Flug, der nur bis 15° S führte, ergaben sich jedoch Datenpunkte, die eher zu einer Korrelation passen, die aus mittleren Breiten bekannt ist. Es ist noch im Detail zu klären, ob hier möglicherweise direkt ein Einmischungsereignis beobachtet wurde. Auch der Polarwirbel ist im Winter von einer effektiven Transportbarriere umgeben. Hier ist eine wichtige Frage, inwieweit Luft aus dem Wirbel in die mittleren Breiten vordringen und dort die chemische Zusammensetzung der Stratosphäre verändern kann. Dieser Luftmassenaustausch findet häufig in Form von sogenannten Filamenten statt, Luftmassen also, die vom Wirbel abgetrennt wurden und sich nun immer länger gezogen vom Wirbelrand wegbewegen. Hochaufgelöste Tracermessungen, wie sie mit HAGAR durch- geführt werden, stellen eine ideales Werkzeug zur Untersuchung und Charakterisierung solcher Abläufe dar. So konnten zahlreiche Strukturen innerhalb und außerhalb des Wirbels untersucht werden, deren Tracermischungsverhältnis darauf hinwies, dass sie jeweils von der anderen Seite des Wirbelrandes stammten. Dabei konnten keine signifikanten Strukturen beobachtet werden, die eine geringere horizontale Ausdehnung als 50 km hatten. Mit dem Ende der vorliegenden Arbeit ist weder die Entwicklung des Instrumentes noch die Interpretation des 1999 gewonnenen Datensatzes abgeschlossen. So ist neben einer neuen Datenerfassung für Temperaturen auch eine Erweiterung von Kanal 1 des Gaschromatographen in Planung. Neben SF 6 soll in Zukunft auch noch CH 4 mit einer Zeitauflösung von etwa 90 s gemessen werden. Zudem soll mit einer verbesserten Druckregelung für den Kessel die Präzision insbesondere der CO 2 -Messungen optimiert werden. Die Präzision der Daten von Halon-1211 sowie SF 6 sind mit 5 % bisher nicht zufriedenstellend. Grund hierfür ist letzlich die Tatsache, dass das Signal-Rausch-Verhältnis für diese beiden Substanzen aufgrund ihrer geringen Mischungsverhältnisse von nur einigen ppt in der Stratosphäre sehr schlecht ist. Aus diesem Grunde wurde eine neue Auswertemethode entwickelt und innerhalb des Softwarepakets zur Datenauswertung (NOAH-Chrom) realisiert. Bei dieser Methode werden die Peaks durch Gauß-Funktionen angenähert. Erste Tests verliefen vielversprechend, zeigen jedoch, dass der Einsatz der Methode noch eine Menge Detailarbeit erfordert. Aus diesem Grunde steht eine vollständige Auswertung des HAGAR-Datensatzes für diese beide Substanzen noch aus; die Methodik ist jedoch im Anhang erläutert. Die in dieser Arbeit dargestellten Analysen sollten als Wegweiser für weitere Untersuchungen und Diskussionen dienen können. So wird insbesondere die Diskussion um die Altersbestimmung wieder aufgenommen werden müssen, wenn sowohl endgültige SF 6 -Daten von HAGAR als auch neue Daten über den aktuellen troposphärischen Trend von SF 6 aus dem NOAA/CMDL- Netzwerk vorliegen. Einen weiteren Schwerpunkt wird die Untersuchung der Mischung über den Rand des Polarwirbels hinweg bilden, wobei sich insbesondere die Frage nach der Höhenabhängigkeit der Mischung stellt. Hier sind insbesondere auch Modellstudien möglich, denen mit den HAGAR-Daten eine weit präzisere und vor allem höher aufgelöste Eingangsdatenbasis zur Verfügung steht, als sie etwa aus Satellitendaten gewonnen werden kann. Von besonderem Interesse ist dabei ein Phänomen, das in den HAGAR-Daten, aber auch bereits in einem Datensatz der ER-2 von 1994 zu beobachten ist: So weicht die F11-N 2 O-Korrelation im Bereich des Polarwirbels für F11-Mischungsverhältnisse zwischen 40 ppb und 170 ppb nach unten von der normalen, aus mittleren Breiten bekannten Korrelation ab (vgl. Abbildung 7.5 auf Seite 142). Dies ist möglicherweise auf noch nicht vollständig verstandene Mischungsprozesse zurückzuführen. In jedem Falle ist damit zu rechnen, dass der im Jahre 1999 von HA-GAR an Bord der Geophysica aufgezeichnete umfangreiche Datensatz weitere Schritte hin zu einem differenzierteren Verständnis des stratosphärischen Transportes einleiten wird.
Paracoccus denitrificans besitzt eine verzweigte Elektronentransportkette. Unter aeroben Bedingungen werden die Elektronen ausgehend von Ubichinol bevorzugt über den bc 1 Komplex auf die aa 3 Cytochrom c Oxidase übertragen. Alternativ können die Elektronen jedoch unter Umgehung des bc 1 Komplexes direkt auf die ba 3 Chinoloxidase transferiert werden. Diese gehört wie die Cytochrom c Oxidase zur Gruppe der HämKupfer Oxidasen; sie reduzieren Sauerstoff zu Wasser und koppeln diese Reaktion an eine vektorielle Translokation von Protonen über die Membran. Die vorgelegte Dissertation befaßt sich mit der Charakterisierung der ba 3 Chinoloxidase. Mittels Mutationen sollen ausgesuchte Aminosäuren untersucht werden, die an der Protonen Translokation bzw. der Reduktion von Sauerstoff beteiligt sind. Zudem soll das Phänomen der heterogenen Untereinheit II geklärt sowie die Notwendigkeit für die Anwesenheit von Häm a in der highspin Position untersucht werden. Dazu mußte zunächst das homologe Expressionssystem für die ba 3 Chinoloxidase verbessert werden. Zu diesem Zweck wurde ein aa 3 /ba 3 ParacoccusDeletionsstamm geschaffen, der es ermöglicht, die Expression der auf einem Plasmid in trans angebotenen Gene der Chinoloxidase um den Faktor fünf zu erhöhen. In Anlehnung an ein bereits existierendes Reinigungsprotokoll ist es gelungen, die Chinoloxidase in einem zweistufigen säulenchromatographischen Verfahren zu isolieren. Das gereinigte Enzym oxidiert sein Substrat Ubichinol in einer pHabhängigen, aber Ionenstärke unabhängigen Reaktion. Bis dato sind zwei Kanäle definiert, der D und der KKanal, über die Protonen ausgehend vom Cytoplasma bis zum binukleären Zentrum transportiert werden. Diese werden dann entweder für die Reduktion des Sauerstoffs verwendet oder gekoppelt an diesen Prozeß über die Membran transloziert. Durch gezielte Punktmutationen sowie GanzzellPumpexperimente kann der Beginn eines weiterführenden ProtonenAusgangskanals bestimmt werden, der durch die benachbarten Arginine 490, 491 und das DRingPropionat des highspin Häms gebildet wird. Durch WasserstoffbrückenBindungen und Ladungsinteraktionen stabilisieren diese Arginine die deprotonierte, anionische Form der PropionatGruppe und erlauben somit eine transiente Bindung von Protonen an das Propionat. Für die Stabilisierung dieses Zustands bzw. die spätere Weiterleitung von Protonen scheint unter anderem die Aminosäure Aspartat 416 verantwortlich zu sein, da eine Mutation an dieser Position zu einem entkoppelten Phänotyp führen kann. Für die Reduktion des Sauerstoffs werden vier Elektronen benötigt. Da aber das vollständig reduzierte binukleäre Zentrum nur drei Elektronen liefern kann, wird ein Tyrosinradikal diskutiert, welches das benötigte vierte Elektron zur Verfügung stellen soll. Gezielte Punktmutationen und spektroskopische Analysen der ba 3 Chinoloxidase sollten zeigen, ob es sich dabei um Tyrosin 297 handelt, dessen Radikalform durch eine kovalente Bindung zu Histidin 293 stabilisiert wäre. Die Mutationen Y297H und Y297F führen in beiden Fällen zu einer enzymatisch inaktiven ba 3 Chinoloxidase. Durch FTIRSpektroskopie kann gezeigt werden, daß Mutationen an dieser Position die Stabilität des binukleären Zentrums beeinflussen. Es läßt sich jedoch aufgrund der fehlenden Enzymaktivität sowie der Störung der geometrischen Struktur des binukleären Zentrums keine Aussage über die Bedeutung der Aminosäure Tyrosin 297 als Elektronendonor treffen. Die Verkürzung des CTerminus der Untereinheit II durch das Einbringen von StopCodons zeigt, daß es sich bei der Heterogenität dieser Untereinheit um einen proteolytischen Abbau handeln muß. Dieser geschieht an spezifischen, aber bisher noch nicht näher charakterisierten Positionen, hat aber keinen Einfluß auf den Zusammenbau oder die Aktivität der Oxidase. Durch die heterologe Expression der bo 3 Chinoloxidase aus E. coli in Paracoccus kann gezeigt werden, daß eine Grundvoraussetzung für eine aktive Chinoloxidase ein farnesyliertes Häm b Derivat in der highspin HämPosition ist. Die dadurch gebildete HydroxylGruppe stellt eine Möglichkeit dar, wie die für die Reduktion des Sauerstoffs notwendigen Protonen das binukleäre Zentrum erreichen können. Ob es sich dabei um ein Häm a oder o handelt, ist wirtsspezifisch und eine Frage der HämVerfübarkeit bzw. des HämEinbaus.
In dieser Arbeit wird die Elektronenemission aus langsamen He 2 HeStößen, d.h. bei Stoßenergien unterhalb von 25 keV/u, experimentell untersucht. Dabei wird auf den Vergleich der Einfachionisation (He 2 He ! He 2 He e \Gamma ) mit der Transferionisation (He 2 He ! He He 2 e \Gamma ) besonderes Gewicht gelegt. Die hier verwendete Meßtechnik ist von verschiedenen Arbeitsgruppen in den letzten Jahren entwickelt worden und unter dem Schlagwort COLTRIMS (Cold Target Recoil Ion Momentum Spectroscopy) [1, 2, 3] in der Literatur zu finden. Bei COLTRIMS werden die bei einer Reaktion in einem kalten Gastarget gebildeten Ionen in einem schwachen elektrischen Feld abgesaugt. Durch den ortsaufgelösten Nachweis und die Messung der Flugzeit von der Targetzone bis zum Detektor kann die Anfangsbedingung der Bewegung im Feld, d.h. der Vektor des auf das Targetatom übertragenen Impulses, berechnet werden. Diese Methode kommt ohne Blenden aus, so daß im relevanten Teil des Phasenraumes 4ß Raumwinkel erreicht werden. Der Nachweis des Elektrons erfolgt nach demselben Prinzip, jedoch stößt man dabei an die Grenzen der Flugzeitauflösung. Deshalb wurden in allen früheren Experimenten zu ähnlichen Reaktionen [4, 5, 6, 7, 8, 9] nur zwei der drei Impulskomponenten des Elektrons bestimmt. Die Konzipierung eines Spektrometers, welches in der Lage ist, den relevanten Phasenraum lückenlos zu erfassen und dabei alle drei Impulskomponenten der Elektronen zu bestimmen, war der wesentliche Teil der apparativen Entwicklung. Das durchgeführte Experiment ist nicht nur kinematisch vollständig, sondern erlaubt durch Anwendung des Energieerhaltungssatzes auch die Bestimmung der Schale, in der das Elektron im Endzustand gebunden ist. Die beiden oben genannten Reaktionen können somit getrennt nach Ereignissen mit und ohne Anregung untersucht werden, d.h., es wurden gleichzeitig vier verschiedene Ionisationskanäle vermessen. Für den Ionisationsmechanismus bei Stößen mit einer Projektilgeschwindigkeit unterhalb der klassischen Bahngeschwindigkeit der Elektronen hat sich in den letzten Jahren der Begriff ''Sattelpunkt''Prozeß durchgesetzt [10]. Quantenmechanische Beschreibungen für Einelektronensysteme, wie das Stoßsystem p H, wurden u.a. mit der semiklassischen GekoppelteKanäleMethode [11] in einem speziellen Basissatz [12, 13] und der ''HiddenCrossings''Theorie [14, 15] gegeben. Beide Modelle beschreiben das System aus Projektil und Target als Quasimolekül. Si sind lediglich in der Lage, die groben Strukturen in den Spektren zu erklären. Das gewählte Stoßsystem He 2 He, welches zwei Elektronen besitzt, erlaubt die Untersuchung von Korrelationseffekten. Die Messungen haben ergeben, daß die Impulsverteilung des emittierten Elektrons stark davon abhängt, wo und in welchem Bindungszustand das zweite Elektron nachgewiesen wird. Die gleiche Kernladung von Projektil und Target bedingt, da alle Eigenzustände des gebildeten Quasimoleküls die Symmetrie des Hamiltonoperators gegenüber Raumspiegelung besitzen, und durch diese Spiegeloperation gehen die Endzustände der Transferionisation und der Einfachionisation ineinander über. Durch die gleichzeitige Messung der differentiellen Wirkungsquerschnitte der verschiedenen Reaktionskanäle und deren Vergleich erhält man Einblick in die zugrundeliegenden Prozesse.
Der Lichtsammelkomplex II (LHCII) dient als Lichtantenne für das photosynthetische Reaktionszentrum II der höheren Pflanzen. Seine Trimere stellen das häufigste Protein in der Thylakoidmembran dar. Ungefähr die Hälfte des Chlorophylls der Pflanze befindet sich in diesem Komplex. Der LHCII ist ein integrales Membranprotein und bindet neben Chlorophyll a und b auch verschiedene Carotinoide. Seine Pigmente absorbieren Licht und geben die dadurch aufgenommene Energie an die photosynthetischen Reaktionszentren weiter, wo sie ausgehend von einer Ladungstrennung chemisch konserviert wird. Die Weiterleitung der Anregungsenergie im LHCII geschieht über spezifische Pfade und mit ultraschneller Kinetik im Femtosekundenbereich. Der LHCII ist das einzige Antennenprotein der höheren Pflanzen, dessen dreidimensionale Struktur bei einer fast atomaren Auflösung von 3.4Å gelöst wurde. Bei dieser Auflösung war es jedoch nicht möglich, den Unterschied zwischen Chlorophyll a und b zu bestimmen, außerdem waren nur zwei der insgesamt drei bis vier gebundenen Carotinoide sichtbar. Das Ziel der vorliegenden Arbeit bestand darin, die einzelnen Pigmente, deren Positionen aus der Struktur bekannt waren, nach ihrer chemischen Natur zuzuordnen. Hierzu wurden mutierte Komplexe untersucht, bei denen jeweils ein bestimmtes Chlorophyllmolekül fehlte. Dies wurde durch Punktmutationen im Polypeptid erreicht, bei denen diejenige Aminosäure ausgetauscht war, an die ein bestimmtes Chlorophyllmolekül über das zentrale Mg 2 Atom gebunden war. Die veränderten Proteine wurden durch ortsgerichtete Mutagenese und Überexpression des Polypeptids in E. coli hergestellt, wo sie ohne die Pigmente aggregiert in Einschlusskörpern vorlagen. Die Rückfaltung in Gegenwart von Pigmenten und Detergenzien erfolgte auf einer NickelAffinitätssäule, an die das LHC Protein mittels einer HexaHistidinmarkierung gebunden war. So konnte in einem biochemischen Schritt das Protein gefaltet, die Pigmente inkorporiert und die native, trimere Form gebildet werden. Die Rückfaltung von histidinmarkierten Proteinen auf Metallaffinitätssäulen kann als generelle Methode auch für andere, schwierig zu faltende, lösliche und Membranproteine angewandt werden. Der native Zustand des rückgefalteten LHCII wurde folgendermaßen bewiesen: Der Pigmentgehalt, der durch HPLC Analyse bestimmt worden war, war identisch zum nativ isolierten Protein. Auch ein Absorptionsspektrum zeigte bei 4K die charakteristische Aufspaltung in mehrere Chlorophyllmaxima. Es konnte gezeigt werden, dass in einem Fluoreszenzexperiment die Anregungsenergie, die bei kurzwelligem Chlorophyll b eingestrahlt wurde, im Komplex komplett auf das langwelligste Chlorophyll a übertragen wurde. Schließlich wurden aus dem rekombinanten Protein zweidimensionale Kristalle erzeugt, deren elektronenmikroskopische Projektionsbilder identisch zu denen des Nativproteins waren. Der Austausch der Chlorophylle an einigen Bindungsstellen durch Chlorophyllderivate, die entweder im Zentralatom oder in der Porphyrinringstruktur verändert waren, zeigte, dass das Zentralatom den entscheidenden Faktor zur Stabilisierung der Chlorophyllbindung darstellt. Es wurden neun Mutanten erzeugt, bei denen jeweils derjenige Aminosäurerest ausgetauscht war, von dem aus der Struktur bekannt war, dass er den fünften Liganden für das zentrale Mg 2 Atom eines bestimmten Chlorophylls darstellt. Die HPLC Analyse ihrer Pigmente zeigte, dass die Mutanten tatsächlich jeweils ungefähr ein Chlorophyllmolekül verloren hatten; dies diente dazu, die jeweilige Bindungstasche zu Chl a oder Chl b zuzuordnen. Nur sechs Mutanten bildeten Trimere, ihre biochemischen Daten zeigten, dass die in der Struktur vorgenommene Zuordnung bis auf das Chl b3 korrekt war. Einige Chlorophyllmutanten waren auch in ihrem Gehalt an Neoxanthin reduziert, daraus konnte die ungefähre Lage des Neoxanthins in der Nähe der Helix C abgeleitet werden. Die mutierten Proteine lieferten nicht nur die Zuordnung einer Bindungstasche zu einem bestimmten Chlorophylltyp, sondern es konnte aus den Differenzspektren im Vergleich zum Wildtyp auch die Wellenlänge eines bestimmten Chlorophylls abgeleitet werden. Um eine höhere spektrale Auflösung zu erzielen, wurden die Spektren bei 4K aufgenommen. Die Zuordnung einzelner spektraler Banden zu bestimmten Chlorophyllen zeigte, dass in einer bestimmten Bindungstasche nur entweder Chlorophyll a oder Chlorophyll b gebunden war, da sich nur eine einzige Differenzbande im Spektrum ergab. Weiterhin implizieren die gefundenen Einzelbanden, dass die Pigmente keiner starken excitonischen Kopplung unterliegen, wie dies zum Beispiel im B850 Ring des bakteriellen Lichtsammelkomplexes der Fall ist. Bei LHCII Komplexen, die nur mit Chlorophyll b rückgefaltet worden waren, zeigte sich eine ungewöhnlich langwellige Fluoreszenz bei 77K. Dies könnte auf eine räumlich limitierte Kopplung eines einzelnen Chlorpohyllpaars hinweisen. Bei der Mutante der Chl a2 Bindungsstelle zeigte sich, dass dies das langwelligste der untersuchten Pigmente war. Der zugehörige Koomplex war auch der einzige, bei dem die Fluoreszenz ins Kürzerwellige verschoben war. Die Lage des Chlorophylls a2 an der Außenseite des Proteins ist prädestiniert für die Energieübertragung zum photosynthetischen Reaktionszentrum oder zu benachbarten LHC Komplexen.
Der Nachweis nichtkovalenter Komplexe mittels ESIMS erfordert Analysebedingungen, die sich deutlich von den Bedingungen der etablierten Standard-ESIMS kovalent gebundener Biopolymere unterscheiden. Für die ESIMS-Analyse nichtkovalenter Komplexe ist insbesondere die Einschränkungen auf das Lösungsmittel Wasser mit Zusatz von Salzen oder Puffern problematisch, was den Nachweis vollständig desolvatisierter Analytionen unter Erhalt der häufig relativ schwachen nichtkovalenten Wechselwirkungen erschwert. Die Problematik für die massenspektrometrische Analyse nichtkovalenter Komplexe steht dabei in engem Zusammenhang mit dem Mechanismus der ElektrosprayIonisierung. Ziel der vorliegenden Arbeit war es daher, grundlegende Phänomene des ESIProzesses zu untersuchen und so ein besseres Verständnis der einzustellenden Randbedingungen beim ESImassenspektrometrischen Nachweis nichtkovalenter Komplexe zu erlangen. Die Untersuchungen erfolgten dabei unter Verwendung geeigneter Modellsysteme, wie Salze, Kohlenhydrate, Peptide und ausgewählte nichtkovalente Komplexe. Eine wesentliche Bedeutung kam der Charakterisierung der physikalischen Randbedingungen der im Rahmen der vorliegenden Arbeit eingesetzten ESIMS-Systeme zu. Auf experimenteller und theoretischer Basis wurden die verschiedenen Aufbautypen im Eingangsbereich des oTOFMS-Systems MICKEY verglichen, wobei ein besonderes Augenmerk auf deren desolvatisierende Wirkung gelegt wurde. Es ließ sich zeigen, daß an diesem oTOFMS-System der Aufbau mit geheizter Transferkapillare dem Aufbau mit Stickstoffgegenstrom vorzuziehen ist, um eine effiziente Desolvatisierung von Analytionen in der ESI zu erzielen. Am oTOFMS-System MARINER wurde die Bedeutung des Drucks in der ersten Druckstufe für die Desolvatisierung von Analytionen am Beispiel ausgewählter nichtkovalenter Proteinkomplexe demonstriert. Dabei konnte gezeigt werden, daß eine Erhöhung des Drucks den Nachweis vollständig desolvatisierter, aber dennoch intakter nichtkovalenter Komplexe dramatisch begünstigt. Dies kann auf die mit der Druckerhöhung einhergehenden Veränderungen der Stoßbedingungen der Analytionen mit dem Restgas beim Passieren der ersten Druckstufe sowie auf die größere Verweilzeit der Ionen in diesem Bereich zurückgeführt werden. Als weitere Randbedingung für Untersuchungen an ESIoTOFMS-Systemen wurde zudem der Einfluß der Axialgeschwindigkeit der Ionen auf das Erreichen des Detektors auf der Grundlage theoretischer und experimenteller Befunde charakterisiert. Die Bedeutung der Axialgeschwindigkeit insbesondere für den Nachweis von Analytionen mit hohen m/zVerhältnissen konnte dabei am Beispiel des nichtkovalenten Komplexes Hämoglobin gezeigt werden. Ebenfalls wurden ausgewählte Phasen des ESIProzesses bei der Überführung gelöster Analyte in massenspektrometrisch detektierbare Gasphasenionen untersucht. So wurde der Einfluß der Zerstäubungsbedingungen auf das resultierende Ionensignal am Beispiel der diskontinuierlichen Zerstäubung von Analytlösung getestet. Künstlich induzierte Zerstäubungsimpulse an der Spraykapillare wurden mit den Extraktionsimpulsen des verwendeten oTOFMSSystems synchronisiert, was die gezielte Analyse einzelner Phasen der diskontinuierlichen Emission von Flüssigkeit ermöglicht. Mit Hilfe des Modellanalyts Bariumbromid ließ sich anhand charakteristischer Indikatorsignale in den Massenspektren auf qualitativer Basis zeigen, daß zu Beginn einzelner Sprayimpulse zunächst kleine Tröpfchen an der Spraykapillare emittiert werden und die Tröpfchengröße im zeitlichen Verlauf des Emissionsimpulses zunimmt. Dieser Befund steht im Einklang mit der von Juraschek [Jur97] vorgestellten Verteilung der Tröpfchengrößen während der diskontinuierlichen Zerstäubung unter den Bedingungen der ESIMS. Ferner konnte durch synchronisierte ESIoTOFAnalyse am Modellsystem einer ZuckerPeptidMischung gezeigt werden, daß Analyte mit höherer Aufenthaltswahrscheinlichkeit an der Flüssigkeitsoberfläche bevorzugt (d.h. zu früheren Zeitpunkten der diskontinuierlichen Zerstäubung) in die geladenen Initialtröpfchen gelangen. Analyte, welche eine höhere Aufenthaltswahrscheinlichkeit im Flüssigkeitsinneren aufweisen, gelangen mit geringerer Wahrscheinlichkeit und somit zu einem späteren Zeitpunkt eines Zerstäubungsimpulses in die Tröpfchen. Die vorgestellten Resultate stehen im Einklang mit den Modellvorstellungen zur Verteilung der Analyte beim für die Desolvatisierung relevanten unsymmetrischen Tropfenzerfall, die unter anderem die geringere Nachweiseffizienz hydrophiler Analyte zu erklären vermag. Der Einfluß des Lösungsmittels auf das resultierende Ionensignal wurde im Rahmen dieser Arbeit im Hinblick auf seine Wirkung als chemische Umgebung des Analyten, auf seine Eigenschaften als Trägerkomponente des Analyten und auf seine Wirkung als Reaktionspartner der Analytionen in der Gasphase untersucht. Als Modellsystem diente der Analyt Bariumbromid in verschiedenen Alkoholen und AlkoholMischungen. Die Untersuchungen ergaben, daß insbesondere die Polarität des eingesetzten Lösungsmittels einen relevanten Aspekt für dessen Wirkung als chemische Umgebung des Modellanalyten darstellt. Eine hohe Polarität des eingesetzten Lösungsmittels begünstigt die Dissoziation des Analyten in Lösung und wirkt somit dem Nachweis von AnalytGegenionAddukten entgegen. Als maßgebliche Eigenschaft in der Rolle der Trägerkomponente ließ sich am Modellanalyt Bariumbromid die Verdampfbarkeit des Lösungsmittels identifizieren. Untersuchungen an einer Analytmischung aus Turanose und Octylglucosid ergaben ferner, daß ebenfalls ausgeprägte Wechselwirkungen zwischen Analyt und Lösungsmittelmolekülen der Verdampfung des Lösungsmittels entgegenwirken. Eine geringe Verdampfbarkeit des Lösungsmittels und eine starke Solvatisierung des Analyten erschweren somit die Desolvatisierung der Analytionen und haben geringe Analytsignalintensitäten in den Massenspektren zur Folge. Ebenfalls ist dem Einfluß der Leitfähigkeit der Analytlösung und somit der Polarität des Lösungsmittels auf die Intensität des resultierenden Ionensignals Rechnung zu tragen. Reaktionen in der Gasphase sind in den ausgewählten Modellsystemen im wesentlichen stoßinduzierte Elektronentransferreaktionen zwischen Lösungsmittel molekülen und zweiwertigen Metallkationen. Eine niedrige Ionisierungsenergie sowie ein hoher Energieeintrag während der Stoßaktivierung - und somit eine hohe Molekülmasse des Lösungsmittels - konnten dabei als begünstigende Faktoren für diese Reaktionen ermittelt werden. Die Resultate zum grundsätzlichen Einfluß des Lösungsmittels dienten als Basis zur Untersuchung des Lösungsmitteleinflusses auf die Bildung von Gramicidin DDimeren mit Hilfe der ESIMS. Am Beispiel dieser nichtkovalenten Peptidkomplexe konnte gezeigt werden, daß die resultierenden Massenspektren unter schonenden Desolvatisierungsbedingungen die Veränderungen des Dimerisierungsgleichgewichts bei Variation des Lösungsmittels widerspiegeln. Die verschiedenen Komponenten der Peptidmischung Gramicidin D bilden zudem in Lösung gemischte Dimere, deren Signale in den Massenspektren eine eindeutige Identifizierung auch geringer Mengen Dimere zulassen. Es ließ sich ferner zeigen, daß die Veränderung der Zusammensetzung von Lösungsmittelgemischen während der Desolvatisierung aus kinetischen Gründen keinen Einfluß auf den detektierbaren Anteil GramicidinDimere aufweist. Untersuchungen zur unspezifischen Adduktbildung in der ESIMS zwischen einem Analyten und weiteren Komponenten der Lösung wurden im Rahmen der vorliegenden Arbeit am Beispiel verschiedener PeptidAnionenAddukte durchgeführt. Es konnte gezeigt werden, daß insbesondere im negativen Ionenmodus eine ausgeprägte unspezifische Adduktbildung eintritt, während im positiven Ionenmodus nur in geringem Maße PeptidAnionenAddukte zu beobachten sind. MS 2 Untersuchungen der Addukte im negativen Ionenmodus ergaben, daß deren Dissoziation unter Abspaltung der zum Anion korrespondierenden Säure erfolgt, wobei in der Reihe der untersuchten Anionen die Stabilität des Addukts mit abnehmender Gasphasenbasizität des Anions zunimmt. Es konnte aber ferner gezeigt werden, daß neben der Gasphasenbasizität noch weitere Faktoren für die Adduktstabilität von Bedeutung sind; insbesondere sind in diesem Zusammenhang dem Einfluß von CoulombWechselwirkungen und räumlichen Faktoren im Addukt Rechnung zu tragen. Soll die Adduktbildung eines Analyten mit in der Lösung vorhandenen Anionen generell vermindert werden, so ist eine Analyse im positiven Ionenmodus vorzuziehen. Untersuchungen zur Stabilität spezifischer nichtkovalenter Komplexe in der ESIMS wurden im Rahmen der vorliegenden Arbeit am Beispiel der HämGlobinKomplexe von Hämoglobin und Myoglobin durchgeführt. Unter schonenden Desolvatisierungsbedingungen sind die in Lösung vorhandenen nichtkovalenten Komplexe ebenfalls in den ESIMassenspektren detektierbar. Durch vergleichende Untersuchungen im positiven und negativen Ionenmodus sowie durch Variation des Ladungszustands der HämGruppe ließ sich allerdings zeigen, daß die Stabilisierung dieser Komplexe in der ESIMS im wesentlichen auf CoulombWechselwirkungen zwischen Protein und prosthetischer Gruppe in der Gasphase beruht. Die Resultate demonstrieren deutlich, daß die in der ESIMS beobachtete Stabilität nichtkovalenter Komplexe in der Gasphase unter Umständen erheblich von der biologisch relevanten Stabilität dieser Spezies in Lösung abweicht. Zwar kann mit Hilfe der ESIMS die Stöchiometrie nichtkovalenter Komplexe zuverlässig ermittelt werden; zur Ermittlung ihrer Stabilität sind jedoch analytische Untersuchungen in kondensierter Phase prinzipiell vorzuziehen. Zum Nachweis nichtkovalenter Komplexe mittels ESIMS ist für jedes Instrument und jede neue analytische Fragestellung stets eine Optimierung der Analysebedingungen erforderlich. Die vorgestellten Resultate bestätigen anhand ausgewählter Beispiele, daß in Lösung vorhandene spezifische Komplexe intakt in Gasphasenionen überführt und massenspektrometrisch detektiert werden können, sofern die Analyseparameter sorgfältig angepaßt wurden. Dabei stellt der Energieeintrag in die Analytionen während der Desolvatisierung ebenso einen bedeutenden Parameter dar wie die Stabilität des nichtkovalenten Komplexes in der Gasphase, welche in einigen Fällen durch die Wahl des ''richtigen" Ionenmodus zur Analyse beeinflußt werden kann. Ein grundsätzliches ''Patentrezept" zum erfolgreichen massenspektrometrischen Nachweis nichtkovalenter Komplexe kann jedoch nicht gegeben werden. Die Desolvatisierung von Analyten aus einem relativ schwer verdampfbaren Lösungsmittel, wie z.B. Wasser, ist problematisch, und die Freisetzung hydrophiler Analytionen wird durch die ausgeprägte Solvatisierung dieser Spezies erschwert. Um neben diesen unabänderlichen Schwierigkeiten weitere Probleme, wie die Bildung von Addukten, zu vermeiden, sollten für die ESIMSAnalyse möglichst saubere Proben Verwendung finden. Ist zur Stabilisierung des Komplexes in Lösung allerdings der Zusatz von Salzen erforderlich, so sollten unter anderem solche Anionen gewählt werden, die nur in geringem Maße Addukte bilden. Ferner ist im Hinblick auf eine Minimierung der Adduktbildung mit Anionen eine Untersuchung im positiven Ionenmodus vorzuziehen. Für die Weiterentwicklung der ESIMS zur Analyse nichtkovalenter Komplexe ist eine weitere Optimierung der grundsätzlichen Desolvatisierungsmöglichkeiten wünschenswert, welche eine schonende Desolvatisierung des Analyten unter Erhalt der spezifischen nicht kovalenten Wechselwirkungen ermöglichen. Ferner sind Methoden zu entwickeln, um Proben effizient und schnell zu reinigen, ohne die Proteinkomplexe irreversibel zu dissoziieren. Durch Entwicklungen dieser Art sollten erhebliche Fortschritte in der ESIMSAnalytik nichtkovalenter Komplexe möglich sein, die dem Ziel eines zuverlässige en Einsatzes dieser Methode in der Routineanalytik biologisch bedeutender Proben näherkommen.
Methodik: Die in dieser Arbeit entwickelte flowzytometrische Methode ist aufgrund der guten Korrelation zur gängigen Europium Immune Release Methode zur Bestimmung der NK-Zell-, bzw. CD 8 , zytotoxischen T-Lymphozyten Aktivität gut geeignet. Der geringe Zeit- und Kostenaufwand sprechen für die Anwendung dieser Methode. Enzympräparation: Die in dieser Arbeit verwendete Enzympräparation kann die NK-Zell bzw. CD 8 , zytotoxischen T-Lymphozyten Aktivität signifikant steigern. Eine signifikante Mehrfachstimulation ist ebenfalls möglich. Möglicherweise beruht dieser Effekt auf einer erhöhten Freisetzung von TNFa durch die Effektorzellen, die die Targetzellen zum (programmierten) Zelltod bringen. Ferner wird über die Freisetzung weiterer Zytokine berichtet, die eine Stimulierung der Effektorzellen bewirken (durch IL1b und IL6). Immunkomplex gebundene TNFa Moleküle können durch die proteolytische Aktivität freigesetzt werden. Die Ergebnisse weisen auf eine unspezifische Veränderung der Membranbestandteile der Effektorzellen hin, welche eine Freisetzung von Zytokinen bewirkt. Ferner kann die proteolytische Aktivität der Enzympräparate verschiedene Immunkomplexe und sogenannte Blockingfaktoren auflösen. Fazit: Eine signifikante und konzentrationsabhängig immunstimulierende Wirksamkeit der Enzyme ist gegeben. Diskussionswürdig dürfte hier nur die enterale Resorption bzw. Persorption sein (s.Kap I). Die parenterale Applikation ist wegen einer anaphylaktischen Reaktion risikoreich. Denkbar wäre eine ex vivo "Therapie" isolierter humaner Lymphozyten mit anschließender Wiederzufuhr in den Kreislauf. Die Aktivierenden Konzentrationen für die Enzyme liegen im Bereich von 20 bis 160 µg/ml bei einer Einfachstimulation. Bei höheren Konzentrationen als 320 µg/ml beginnt der toxische Bereich. Bei der Mehrfachstimulation von Lymphozyten liegt der aktivierende Bereich zwischen 10 bis 80 µg/ml, wobei die höheren Konzentrationen toxisch wirken. Retinoide: Eine konzentrationsabhängige signifikante Steigerung der NK-Zell- bzw. CD 8 , zytotoxischen T-Lymphozyten Aktivität ist gegeben. Die NK Zellaktivität konnte bei Konzentrationen von 10 8 bzw. 10 6 M mit Retinsäure und Retinol gesteigert werden, die Aktivität von CD 8 zytotoxischen T-Lymphozyten hingegen nur durch Retinsäure. Das Lösungsmittel DMSO bewirkte keine signifikante Aktivitätsänderungen. Diskutiert wird hier eine erhöhte Expression des IL2-Rezeptors sowie die des CD3 Rezeptors, als Ursache für die Aktivitätssteigerung führen soll. Der Fas-Ligand hingegen wird herabreguliert, was eine "Selbsttötung" der Effektorzellen verhindert. Die vermehrte Produktion von Zytokinen (IL2, IL4, IL6, IL10 und IFNgamma), deren Gehalt die im Überstand Retinol behandelter Zellen zunimmt, kann ebenfalls zur Aktivitätssteigerung führen.
Die G/F-Transition zytoskelettärer Elemente bildet die molekulare Basis zur Kontrolle der Zellform, Motilität, Migration und Invasivität von Zellen. Die Änderungen der Filamentlängen werden durch bindende Proteine kontrolliert, wodurch sich die viskoelastischen Eigenschaften des Zytoplasmas ändern. Die Kenntnis der mechanischen Eigenschaften der einzelnen Zytoskelettelemente in vitro (mit und ohne bindende Proteine) ist die Grundlage zum Verständnis der Zellmechanik. Daher wurde eine nicht destruktive Methode zur Bestimmung viskoelastischer Eigenschaften von Gelen und Flüssigkeiten entwickelt. Als Viskositätssensor dient ein kleines Glasstäbchen, welches in der zu untersuchenden Flüssigkeit in seiner Resonanzfrequenz schwingt. Aufgrund der Zähigkeit der Flüssigkeiten kommt es zur Mitbewegung angrenzender Flüssigkeitsschichten. Die Eindringtiefe der erzeugten Scherwellen ist eine Funktion der Viskosität und der Dichte der Flüssigkeit. Die extrem kleinen Auslenkungen (1100 nm) des Sensors werden von einem phasensensitiven akustischen Mikroskop detektiert, welches gleichzeitig die Detektion des Elastizitätsmoduls der Flüssigkeit ermöglicht. Nach Aufbau und Weiterentwicklung des Gerätes wurde die Viskoelastizität während der Polymerisation von Aktin, Tubulin und Neurofilamentprotein gemessen sowie während der Interaktion der Polymere mit einer Reihe spezifisch bindender Proteine, wie z.B. aAktinin, Profilin, Glykolyseenzyme, MAPs bzw. Zellgiften wie Cytochalasin D, Phalloidin, Colchizin und Taxol. Im Vergleich zu FAktinlösungen ist die dynamische Viskosität von Mikrotubulilösungen um eine Zehnerpotenz und die Schallgeschwindigkeit um etwa 100 m/s höher. Die Viskoelastizität von Nicht-Muskelaktin ist im Vergleich zu Muskelaktin etwa dreimal höher. Die steadystate-Viskositäten von F-Aktin und Mikrotubulilösungen nähern sich mit steigender Proteinkonzentration einem Maximalwert an, wohingegen die Elastizitäten sich einem Minimalwert annähern, was auf eine nematische Phasentransition zurückzuführen ist. Der Schallgeschwindigkeitsverlauf während der Polymerisation von Aktin und Tubulin ist biphasisch: er nimmt zunächst vor messbaren Viskositätsänderungen zu, was hinsichtlich des Aktins auf eine Zunahme steifer Aktinprimer und hinsichtlich des Tubulins auf die Bildung oligomerer Strukturen mit hoher intrinsischer Steifigkeit zurückzuführen ist. Für Proteinkonzentrationen >20 µM fällt dann die Schallgeschwindigkeit nach dem Erreichen des Viskositätsmaximums ab, was durch eine erhöhte Volumenkompressibilität infolge zunehmender Hydratation der Polymere begründet ist. Versuche mit polymerisationsfördernden bzw. depolymerisierenden Agenzien wie Taxol bzw. Colchizin und Kalzium zeigen, dass die hohe Elastizität von Mikrotubulilösungen durch die intrinsische Elastizität der Tubulinoligomere dominiert wird. Die Viskosität von Mikrotubuli mit assoziierten MAPs (MTP) ist im Vergleich zu FAktin ungefähr doppelt so hoch und im Vergleich zu PC-Tubulin ungefähr dreimal niedriger. Die Elastizität von MTP ist im Vergleich zu FAktin durchschnittlich 4 % höher und 3 % niedriger im Vergleich zu MAP-freien Mikrotubuli. Die Assoziationen von Neurofilamenten an Mikrotubuli induzierte einen Viskositätsanstieg, während die Elastizität fiel, was auf eine Destabilisation der Mikrotubuli während der Interaktion zurückzuführen ist. Die Destabilisation ist möglicherweise eine Folge einer GTP-Hydrolyse durch die an den Neurofilamenten assoziierte GTPase. Neben den zeitlich voneinander unabhängigen Verläufen der Schallgeschwindigkeit und der Viskosität konnte mit Hilfe der Detektion der Schalldämpfung während der Polymerisation von Aktin eine weitere zeitlich unabhängig verlaufende Kinetik bestimmt werden, welche mit der Quervernetzung und der Filamentlänge zusammenhängt. Die Schalldämpfung von Neurofilamenten ist im Vergleich zu F-Aktin etwa 10mal höher. Während der Polymerisation von Tubulin, mit und ohne MAPs, konnte aufgrund hoher Schallreflektionen, bedingt durch die festkörperähnlichen Strukturen, keine klar definierte Schalldämpfungskinetik bestimmt werden. Die Elastizität von Aktingelen (1 mg/ml) hängt nicht mit der Deformationsfrequenz (0,0533 kHz) zusammen. Nach der Zugabe von a-Aktinin steigt jedoch die Elastizität mit der Frequenz gemäß dem Verhalten eines elastischen Körpers an. Auch durch die Zugabe hoher ATP-Konzentrationen (2 mM) kann die Elastizität von Aktin erhöht werden. Impulsartige Modulationen der Schwingungsamplitude von ± 30 nm senkten die Viskosität von Aktingelen (< 25 µM) um 50 %, was auf ein Zerschlagen und Umorientieren von Filamenten zurückzuführen ist. Durch die Zugabe von aAktinin waren diese Viskositätsänderungen siebenmal niedriger. Die Viskosität von Aktingelen > 50 µM konnte durch impulsartige Erhöhungen der Schwingungsamplitude (> 40 nm) nicht verringert werden. Ebenso wurden die Viskositäten von Tubulingelen (15100 µM) und Neurofilamentlösungen (> 0,5 µM) durch impulsartige Deformationen im Nanometerbereich (10100 nm) nicht beeinflusst. Niedrige Profilinkonzentrationen (Aktin:Profilin 1) fördern die Polymerisation von Mg 2 bgGAktin. Ebenso führt die Zugabe von Profilin (Aktin:Profilin = 1:1) zu bereits polymerisiertem Aktin zu einer Viskositätszunahme. Profilin im Überschuss (Aktin:Profilin = 1:5) hemmt die Polymerisation von Mg 2 bgG Aktin. Im Gegensatz zu Muskelaktin verliert NichtMuskelaktin nach einiger Zeit (> 40 Minuten) seine Elastizität. Dieser Elastizitätsverlust kann durch die Zugabe von Profilin verzögert werden. Nach der Zugabe geringer Profilinkonzentrationen zu bgAktin wurde anhand von EM-Aufnahmen vermehrt nicht filamentöse Aktin-Aggregate gezeigt, welches besonders hohe Elastizitätswerte aufwies. Zusammen mit den rheologischen Befunden für Aktin und Mikrotubulilösungen kann geschlossen werden, dass nicht filamentöse Formen zytoskelettärer Elemente (Tubulinoligomere, Aktintrimere, GAktincluster) in hohem Maße zur Elastizität von Zellen beitragen. Hexokinase fördert die Polymerisation von Aktin. In Gegenwart hoher ATP-Konzentrationen wirkt sie durch Fragmentierung von Aktinfilamenten elastizitätsmindernd. In Gegenwart von Glukose wird dieser Effekt aufgehoben. LDHH 4 fördert in Gegenwart ihres Coenzyms NADH die Polymerisation von Aktin. Gibt man zusätzlich Pyruvat hinzu, so wird dieser Effekt nahezu umgekehrt. Unter diesen Bedingungen ist ferner die Enzymaktivität der LDHH 4 eingeschränkt. Umgekehrt fördert die LDHH 4 in Gegenwart von Laktat und NAD die Polymerisation von Aktin, wobei gleichzeitig die Enzymaktivität der LDHH 4 erhöht ist. Diese Befunde sprechen für eine deutliche Reziprozität zwischen LDHH 4 und Aktin. Aldolase reduziert deutlich die Viskoelastizität von F-Aktin, was in der Bildung von F-Aktin-Aldolase Parakristallen begründet ist. Die Zugabe des Substrates FBP erhöht hingegen die Viskoelastizität von F Aktin. Der Effekt hängt jedoch davon ab, ob Magnesium-Ionen an den Aldolase-G-Aktin-Komplex binden. Wird Aldolase zu polymerisierendem Aktin zugegeben, so bleibt die Viskosität der Lösung unverändert, während die Elastizität zunimmt. In diesem Falle wird die Steifigkeit der Filamente durch die Anla gerung der Aldolase erhöht. Zytosolische, nichtmembrangebundene Enzyme, wie die Aldolase, Hexokinase und LDH binden demnach an F-Aktin und modulieren seine Mechanik. Das Ausmaß der Modulation hängt von der Konzentration der Enzyme sowie der Gegenwart der jeweiligen Substrate ab. Ferner moduliert Aktin reziprok die Aktivität der Enzyme.
Exemplarisch anhand der Offenbacher Lohwald-Siedlung, einem klassischen sozialen Brennpunkt, der sich in den vergangenen drei Jahrzehnten vom Obdachlosen-Asyl hin zu einem modernen Ghetto verwandelt hat, werden Lebenssituation, Lebensentwürfe und die Lebensperspektiven jugendlicher Brennpunkt-BewohnerInnen beschrieben. Hierzu werden die Entwicklungsgeschichte und die Beschreibung der räumlichen Segregation des Wohngebietes sowie Angaben zur Sozial- und Infrastruktur des Stadtteils und die Beschreibung der Lebens- und Sozialisationsbedingungen ebenso herangezogen wie die analytische Betrachtung komplexer gesellschaftlicher Entwicklungen und die Selbsteinschätzungen und -deutungen junger Lohwald-BewohnerInnen, die im Rahmen einer empirischen Untersuchung ermittelt wurden. Zwar ergab die Gesamtuntersuchung, dass der Charakter der Lohwald-Siedlung als ein nach innen und aussen relativ geschlossenes Ghetto brüchig und nach beiden Seiten hin durchlässig geworden ist, und dass diese Entwicklung sich auch in den jugendlichen Orientierungsmustern niederschlägt. Doch dies ist nicht gleichbedeutend, dass sich dadurch der Brennpunktcharakter der Siedlung aufgelöst hat. Für viele junge Menschen ist Aufwachsen im sozialen Brennpunkt nach wie vor gleichbedeutend mit Unterversorgung, Beeinträchtigung, Benachteiligung und Stigmatisierung sowie fehlender Förderung in wesentlichen basalen Bereichen. Das Zusammenkommen defizitärer familiärer Sozialisation und einer häufig problempotenzierenden Sozialisation durch die Gleichaltrigengruppe (Peergroup) unter den Bedingungen begrenzter Erlebnis-, Erfahrungs- und Erkenntnismöglichkeiten, fehlender Lernfelder und mangelnder Erfolgs- sowie Anerkennungsmöglichkeiten haben u.a. zur Folge, dass wichtige Einstellungs- und Verhaltensmuster und Schlüsselqualifikationen fehlen bzw. nicht ausreichend ausgeprägt sind, um den unterschiedlichsten Anforderungen eines Lebens außerhalb des sozialen Brennpunktes und einer sich immer rascher wandelnden Gesellschaft entsprechen zu können. Doch nicht nur die subjektiven Dispositionen sondern auch die objektiv-gesellschaftlichen Bedingungen, die sich aus der Dynamik gesellschaftlichen Wandels ergeben erhöhen für viele Brennpunkjugendlichen die Wahrscheinlichkeit der Aufrechterhaltung ihrer Randgruppenexistenz und somit ihres Verbleibs im unteren Drittel, wenn nicht Zehntel der Gesellschaft. Dem entgegenzuwirken ist nicht nur Aufgabe von Sozialpolitik sondern auch von Sozialarbeit. Ausgehend von den ermittelten Bedarfen vor Ort werden Theorie und Praxis eines zielgruppenorientierten Konzeptes von Jugendarbeit vorgestellt, das sich nach wie vor dem emanzipatorischen Anspruch verpflichtet sieht, zur Persönlichkeitsentwicklung- und Bewusst- seinsbildung beizutragen. Nicht nur weil dies den Erfordernissen des gegenwärtigen Arbeitsmarktes entspricht oder zu einem gelingenderen Umgang mit den Anforderungen führt, die sich aus den gesellschaftlichen Strukturwandlungsprozessen ergeben, sondern weil dies als wichtiger Beitrag zu verstehen ist, junge Menschen in die Lage zu versetzen, sich, ihre Umwelt, ihre Situation und deren Ursachen aber auch ihre Zukunftsperspektiven verstehen und tendenziell auch verändern zu können. Es geht also um die Begründung und Beschreibung einer Jugendarbeit, die zur Bewusstmachung und Eröffnung von Handlungsfeldern führt. Anhand der Theorie, des Konzeptes und der Praxis erlebnisorientierter Jugend(kultur)arbeit im Lohwald und deren Evaluation u.a. durch empirische Befunde wird nicht nur aufgezeigt, dass eine solche Jugendarbeit erfolgreich sein kann, sondern auch, das die Debatten um die sozialisatorische und politische Produktivität von Jugendarbeit nach wie vor aktuell sind.
Soziokulturelle Funktionen von daytime Talkshows: Die den Untersuchungen zugrundeliegenden Annahme war, TV-Talkshows als Teil eines gesellschaftlichen Diskurses, als eine mit spezifischen Merkmalen ausgestattete Art der Sprachverwendung zu betrachten, die gerade als kollektive, gesellschaftliche Praxis determinierende Faktoren und spezifische Wirkungen hat. Ihre Manifestationen als Programm, Videoband oder (in reduzierter Form) als verschriftetes Transkript wurden als "Text" definiert, der innerhalb der soziokulturellen Ordnung bestimmte Aufgaben hat, und dessen Funktionen sich nicht allein als lokale Funktionen (die sich auf die unmittelbare Situation als gelenktes Gespräch im Studio vor Publikum beziehen) erklären lassen. Der gesellschaftliche Effekt (die Funktion?) der hier untersuchten daytime talkshows ist ein öffentliches In-Erscheinung-Treten und ein komplementär dazu wirkendes Wahrnehmen des Privatmenschen in seiner Alltäglichkeit, des Durchschnittsmenschen im Medium Fernsehen. Dieser alltägliche Durchschnittsmensch kann durchaus als "the nigger of tv" gesehen werden, denn außer seiner (bisweilen nackten) Haut - oder seinem Innenleben hat er dem Fernsehen nichts zu verkaufen, denn er ist ja gerade nicht prominent, attraktiv, glamourös oder aus anderen Gründen begehrenswert für ein Publikum. Doch zu der Bedingung, seine seelischen Defekte öffentlich vorzuführen, ist auch ihm jederzeit ein Platz im Glanz der Scheinwerfer gewiß. Daß sich so viele zu einer öffentlichen Innenschau entschließen können, hängt vermutlich mit einem medialen Narzißmus zusammen, der die Spiegelung im Blick des Anderen zum Beweis seiner Existenz braucht. In einer von den visuellen Medien, insbesondere dem Fernsehen durchdrungene Lebenswelt, ist das Bedürfnis des namenlosen, unscheinbaren Alltagsmenschen, ebenfalls als ein in dieser TV-Welt existierendes Subjekt wahrgenommen zu werden, möglicherweise verständlich. Dieses Subjekt der Talkshow wird jedoch erst durch Konventionen des Sprachgebrauchs und der Interaktion, durch gezielte Bildführung und Auswahl der Einstellungen, durch sozial signifizierte Formen von Makeup und Dresscodes, aber auch durch Zuschreibungen und Kategorisierungen sowie durch Möglichkeiten (oder Unmöglichkeiten) der zumeist konversationell narrativ realisierten Selbstdarstellung etc. konstituiert und als "Typus" entwickelt. Es ist ein Effekt des Talkshowspezifischen Diskurses. Gleichzeitig ist es Objekt dieses Diskurses, insofern sich alle Teilnehmer über dieses Subjekt (über sein Innenleben, seine Probleme, geeignete Korrekturverfahren etc.) unterhalten. Die soziale (nicht die individuelle!) Identität als Durchschnittsmensch in seiner öffentlichen, gesellschaftlichen Erscheinungsform wird in solchen TVDiskursen erst produziert, und historisch betrachtet ist sie noch eine junge Erscheinung: TV-Talkshows dieses Zuschnitts haben sich erst Ende der achtziger Jahre herausgebildet. Die Showproduzenten sehen explizit eine auf Selbsterkenntnis ausgerichtete, beratende, (alltags-)problemlösende Funktion ihrer Programme, "der Alltagsmensch in Not wird hier geholfen", so würde V. Feldbusch von Sat1 vermutlich formulieren. Als selbsternannte Fernsehvariante eines Ratgeberdiskurstyps ist das Alltagssubjekt aufgefordert, einen Diskurs über es selbst zu halten (Gestehen), Diskursen anderer über es selbst zuzuhören (Informiert-/Belehrt-/Ermahnt-Werden). In dieser Hinsicht ist die hier untersuchte Form von Talkshows auch als gesellschaftliche Praxis zu verstehen, die auf ihre triviale Weise ein "Wissen vom Subjekt" (über sog. subjektive, innere Verfaßtheit, psychische Eigenschaften) hervorbringt, täglich reproduziert und massenhaft verbreitet. Dieses weitgehend durch eine therapeutische Weltanschauung strukturierte, entblößende "Wissen" wird zwischen den Beteiligten jedoch in Formen verhandelt, die die Strukturen und Merkmale eines privates Gespräch simulieren. Das Sprechen über den Privatbereich wird formal auch als privates Gespräch simuliert, weist aber eine hybride Struktur zwischen Abfrageformat und informellem Gespräch auf. Dabei war festzustellen, daß die Teile des Hybrids den Teilnehmerkategorien GUE und HOST nicht zu gleichen Teilen zufallen, sondern die Moderatorin die Optionen informeller Gesprächsorganistationen und Merkmale nutzt, während den Gästen nur die Optionen des reaktiven Parts im Interviewrahmen zustehen und sie auch im Bereich der Lexis selten Gebrauch vom informellen Register machen . In einer merkwürdigen Umkehrung des Faktischen erweist sich die "Redeweise des Volkes" gerade ausschließlich als Option der Moderatorin, die eben nicht die Massen, sondern die Institution, das Medium verkörpert. Talkshowdiskurse formieren öffentlich wahrnehmbare, medial konstituierte soziale Subjekte, die jedoch nicht als Rollen und Statusträger oder Repräsentanten von Institutionen, auch nicht als "Popstars", sondern gerade als "einfache Durchschnittsmenschen" konstituiert werden. Diese Typisierung bzw. Konturierung einer öffentlichen Form des Alltagsmenschen erfolgt jedoch nicht allein über Bilder und Repräsentationen, sondern weitgehend, aber unmerklicher durch diskursive Praktiken, durch den Umgang mit dem Subjekt der Talkshow, durch Interaktionskonventionen und anderen Modalitäten des Sprechens wie Höflichkeitsstrategien oder bestimmte narrative Verfahren, die in selbstdarstellerischer Absicht Sprecheridentitäten artikulieren. Die je Talkshow spezifische Konfiguration solcher subjektkonstitutiver Praktiken auf verschiedenen Ebenen des Diskurses ergibt eine Kontur, einen durch die Talkshow produzierten und nur vermittels der Praktiken, nie jedoch explizit charakterisierten "Entwurf" des Alltagsmenschen (z.B. ohnmächtig, Autoritäten unterworfen, selbstermächtigt, einsichtsfähig, vereinzelt, einer neben vielen usw.). Diese Typisierung bzw. implizite Charakterisierung durch Konventionen des Sprachgebrauchs und der Gesprächsstruktur wird maßgeblich in der Differenz zu den Positionen der anderen Diskursteilnehmer (Experten, Studiopublikum, Moderatorin) herausgebildet. Diese Diskurssubjekte stehen in einem für den Diskurstyp je charakteristischen Verhältnis zum Diskurs, zu den Modalitäten des Sprechens und zu anderen Subjektpositionen, von denen aus gesprochen werden kann. Subjektpositionen sind die unabhängig vom jeweils auf dem Podium platznehmenden Individuum vorstrukturierten, mit bestimmten Möglichkeiten des Sprechens ausgestatteten, an bestimmte kommunikative Handlungen gebundenen, mit bestimmten interaktionellen Vorrechten ausgestatteten etc. transindividuellen Äußerungsmöglichkeiten, die, realisiert, ein typisches Exemplar dieser Subjektposition zur öffentlichen Erscheinung bringen. Insofern sind diskursiv positionierte (konstituierte) Subjekte bzw. Subjektpositionen gleichzusetzen mit den spezifischen Äußerungsmodalitäten des jeweiligen Diskurstyps. Unter der Perspektive einer kritischen Diskursanalyse werden diese Vorgänge als moderne Form von Machtausübung und Ideologie betrachtet. Der Fokus auf die diskursiven Praktiken, die unscheinbare Normalisierungs und Disziplinierungseffekte bewirken als explizite Repräsentationen und Repression, lenkt das Augenmerk auf das, was Foucault den technologischen Aspekt von Macht bezeichnet. Machttechnologien stellen über konventionalisierte Diskurspraktiken gesellschaftliche Ordnung und Dominanz her, regulieren über Kommunikationsverhalten die Masse der Bevölkerung bzw. reproduzieren diese (hegemoniale) Ordnung in unzähligen, alltäglichen Mikropraktiken zwischen Institutionen und ihrer Klientel. Nicht nur in Talkshows handelt es sich bei solchen Praktiken weitgehend um sprachlich strukturierte Praktiken. Auch sprachlich konstituierte Verhältnisse artikulieren Machtverhältnisse, sie strukturieren sich nach Gleichheit/Nähe oder Ungleichheit/Distanz. Subjektpositionen sind die Pole in diesem Verhältnis. Da jedoch Subjektpositionen von diskursiven Positionen, d.h., Sprecherpositionen bestimmt werden, gilt es die Formen und Möglichkeiten des Sprechens der unterschiedlichen Teilnehmerkategorien im Talkshowdiskurs genau zu analysieren: In welcher Form zu welchen Bedingungen kann wer was wem gegenüber wie artikulieren? Wer mit wem in welcher Form interagieren? Welche Implikationen hat das? Welche sprachlichen Strukturen und Prozesse strukturieren dieses Sprechen und inwiefern strukturieren die sprachlich diskursiven Formen das Verhältnis der Diskurspositionen? In welchen sprachlichen Formen wird das Subjekt/ive verhandelt, und vor allem: Welches Sprechen legitimiert den medial konstituierten Durchschnittsmenschen? Prämissen, Vorgehensweise und Ergebnisse Um sich der Problemstellung zu nähern und die Mikropraktiken des Sprachgebrauchs funktional zu erfassen, wurde eine systemischlinguistische sprachtheoretische Perspektive eingenommen, die die primären Funktionen von Sprache in eine repräsentationsorientierte, eine interpersonell ausgerichtete und eine textuelle Dimension gliedert. Da es galt, diskursive Praktiken hervorzuheben, die sich nur durch den Bezug auf Akteure und Handlungen zwischen diesen beschreiben lassen, lag der Schwerpunkt der Untersuchung auf den sprachlichdiskursiven Merkmalen, die die Verhältnisse zwischen den Diskursbeteiligten bzw. die der Teilnehmer zum Diskurs regulieren und artikulieren. Die Entscheidung, zwei unterschiedliche Talkshowreihen zu untersuchen, beruht auf der Annahme, daß erst der kontrastierende Blick es ermöglicht, wesentliche Merkmale und Spezifika des Diskurstyps zu erfassen. Oft rücken nur über vergleichende Analysen kennzeichnende Aspekte in den Mittelpunkt, die bei homogeneren Daten möglicherweise unterbeleuchtet blieben. So konnten unterschiedliche Optionen der Realisierung bestimmter funktional definierter Vorgänge (z.B. das Vorstellen, die Einführung, die Befragung usw.), die innerhalb ähnlich strukturierter Diskurstypen zur Verfügung stehen und für z.T. signifikante Unterschiede sorgen, präzisiert werden. Die Auswahl der zu untersuchenden Phänomene und Merkmale wurden durch dieses vergleichende Lesen der Transkripte erheblich beeinflußt. Der Reihe nach wurden mit sprachwissenschaftlichem sowie interaktionsanalytischem Instrumentarium die Gesprächsorganisation, die Fremddefinitionen und Kategorisierungen des Subjekts der Talkshow durch die Einführungs und Einleitungsverfahren auf verschiedenen (visuellen, graphischen und sprachlichen) Ebenen untersucht. Im Anschluß daran standen kommunikative Handlungen zwischen den Diskursteilnehmern im Mittelpunkt, mit dem Schwerpunkt auf Analysen von Fragehandlungen und Frageformaten der Moderatorinnen und persönlichen Erzählungen der Alltagsmenschen/Gäste. Implikationen der sprachlichen Organisation und der verbalen oder kommunikativen Strukturen für die Subjektpositionen der Beteiligten wurden herausgearbeitet. Sodann habe ich mich auf den Diskurs der Experten konzentriert und Strategien der Subjektkonstitution dargestellt. Dabei ging es vor allem darum, wie das "ExpertenWissen" in diesen Shows auf das Subjekt zurückwirkt, welche Formen der "Beratungs/Ratgeberdiskurs" annimmt und welche SubjektEffekte dies zeitigt. Dabei wurde deutlich, daß beide Showreihen unterschiedliche Subjektpositionen für den Fernseh Durchschnittsmenschen konstituieren, die sich aus den ebenfalls unterschiedlichen Strukturierungen und Differenzen zu den anderen Positionen (Experten, Moderatorinnen, Studiopublikum) ergeben. Um den Aspekt der Macht und die gesellschaftliche Funktion der Talkshowpraktiken in die Untersuchungen einzuführen, wurde auf das Konzept der Machttechnologien zurückgegriffen, wie von Foucault (z.B. 1977) skizziert. Er verweist auf zwei grundlegende Metastrategien, die ungeregelte "Masse Mensch" gesellschaftlich (staatlich, hegemonialkulturell) zu disziplinieren, zu steuern und letztenendes verwaltbar zu machen, auf seinen gesellschaftlichen Platz zu verweisen, indem sie zu Subjekten (gemacht) werden. Es handelt sich dabei um die Machttechnologien der Objektivierung und der Subjektivierung von Individuen, die sich jeweils durch verschiedene Verfahren auszeichnen, wie ein Wissen vom Menschen hervorgebracht wird, das dann von den Individuen als "ihre Wahrheit" bzw. als die Beschreibung ihres "wahren Selbst" von ihnen selbst angenommen und diskursiv reproduziert wird. Die Möglichkeiten, sich als Selbst wahrzunehmen, die Formen, in denen dies geschieht und die Repräsentationen, die damit verbunden sind, stehen daher immer in einem sei's konservierenden, sei's subversiven Verhältnis zu Macht. Die Kennzeichen beider Machttechnologien habe ich in Anlehnung an Ausführungen von Foucault (1977;1983) bzw. seiner Interpreten Dreyfus und Rabinow (1987) versuchsweise und relativ frei auf interaktionelle und diskursive Verfahren in den Talkshows übertragen, was mir allerdings unproblematisch erscheint, denn die "Strategien" sind in aller Regel in Verbindung mit Sprache realisierte Vorgänge. Insofern entspricht es nur einer Präzision auf konkreter sprachlicher Ebene (was Foucault schuldig bleibt). Es wurde also der Versuch unternommen, diskursive Korrelate zu den von Foucault nur sehr allgemein formulierten Merkmalen der Technologien zur Subjektkonstitution zu finden und gesprächsanalytisch erfaßbar zu machen. Als Objektivierungsprozesse lassen sich die Verfahren beschreiben, die die Diskursteilnehmer zu AusstellungsObjekten (des Blicks und der Rede) machen. Andererseits gibt es subjektivierende diskursive Verfahren, die die Teilnehmer als Subjekt konstituieren, indem sie zur relativ ungelenkten, freigewählten Diskursproduktion, d.h. zu längerem und ggf. auch eigenintitiativen Sprechen animiert werden, allerdings immer in Erwartung, ihr "wahres Selbst" der Öffentlichkeit auszustellen ("gestehen"), das im Anschluß daran von einer Experteninstanz ausgedeutet wird. Sprachlichdiskursiv realisierte Objektivierungsstrategien definieren sich z.B. durch Verfahren der (mit negativ konnotierten Werten beladenen) Identifizierung, Fremdkategorisierung, Aussonderung und Vereinzelung, die in überaus großem Maß in den Shows von Rolonda festzustellen sind. Das impliziert den Fokus auf das konkrete Individuum und den Einzelfall, der vor den Augen der Öffentlichkeit vorgeführt, belehrt und ermahnt wird. Durch Identifikation und Fremdkategorisierung wird das Subjekt der Talkshow zum Objekt der Rede gemacht, anstatt es selbst sprechen zu lassen. In dieser Hinsicht spielen vor allem die Untertitel, die Einleitungsdefinitionen der Moderatorin (v.a. in Rolonda) und der Gebrauch der Personalpronomen, insbesondere des persönlich gebrauchten, definiten "you" eine große Rolle, die als personalisierende Identifizierungspraktiken stark vereinzelnde Effekte haben. Kategorisierungen der Personen, die im Dienste der Show operieren und sie von vornherein auf bestimmte Wahrnehmungen festlegen, sind ebenfalls objektivierende Talkshowpraktiken: Reduktionen auf die "Eigenschaft" der Familienzughörigkeit, Subsumtion unter das Tagesthema und Definitionen in Abhängigkeit von selbstdefinierten Absichten der Showgestalter ("helfen, glücklich machen, bessern") klassifizieren das TalkshowSubjekt jeden Tag aufs Neue in den immer gleichen Mustern als unfähig zur Selbsthilfe, als Schädling und Problem für die anderen und als disziplinierungsbedürftig. In Rolonda fand sich zudem ein spezielles Aussonderungsverfahren, das in der Moderationsstrategie des inhaltlichthematisch definierten "Stehenlassens" der Fragerunden bei spektakulären Details besteht. Das hat den Effekt, ein grelles Schlaglicht auf das Individuum zu werfen, es in einem Detail bloßzulegen, ohne ihm im Anschluß weitere Relativierungen und Kommentare zu ermöglichen (da die Moderatorin schon zum nächsten Gast und nächsten Thema gewechselt hat). Dazu gehören die auf Lupeneffekte und Details ausgerichtete Frageführung der Moderatorin, die Hinführung der persönlichen Erzählungen auf MiniSzenen und affektiv aufgeladene Einzelmomente, die das Subjektive auf spektakuläre Ereignisse reduzieren und aus seinem lebensweltlichen Zusammenhang reißen. Spiegelvorhaltungstechniken als verdinglichende Disziplinierungsmaßnahme wurden ebenfalls identifiziert. In visuellen Repräsentationen soll das Subjekt sich spiegeln und wiedererkennen. Ein Verfahren in Rolonda ist es, den ZuschauerInnen das Alltagsleben der als Gäste eingeladenen Durchschnittsmenschen in Form eines pseudo dokumentarischen Filmclips zu präsentieren und sie im Anschluß daran mit dem (darin gezeigten) Fehlverhalten zu konfrontieren, sie zu veranlassen, es zu verurteilen und andere Stimmen zu diesen Spiegelungen Stellung nehmen zu lassen (in Form von Verurteilung, Tadel, Zurechtweisung). Ein weiteres Spiegelungverfahren (mit disziplinierender oder kathartischer Absicht) in Rolonda stellt die Strategie dar, das Fehlverhalten im Studio zu provozieren und live auf dem Podium in Szene zu setzen (z.B. der Streit zwischen Mutter und Tochter, der vorführt, daß die Mutter ihre Tochter nicht disziplinieren kann in Anger; Zornausbruch und Kommunikationszusammenbruch in der Auseinandersetzung von Jeremy und dem Mann im Publikum, wobie vorführt wird, daß Jeremy nicht in der Lage ist, seinen Frustrationen Ausdruck zu verleihen etc.). Dabei wird jedoch eher dem Publikum als den Gästen ein Spiegel vorgehalten, der vermutlich als Abschreckung dienen soll. Zum Objekt der Rede wird der FernsehPrivatmensch auch im Expertendiskurs, der seine Innenwelt analysiert oder ggf. korrigiert. Das Interaktionsarrangement in Rolonda ist dabei so, daß nicht GUE Dialogpartner dieser Analysen sind, sondern die Moderatorin. Das Subjekt wird so zum Gegenstand der Analyse eines Autoritätendiskurses, der aber mit anderen Autoritäten (nämlich mit der medienspezifischen Machtposition HOST) geführt wird. Durch Befragungstechniken und Frageformate wird die Innenschau auf das Subjekt möglich und seine diskursive Position gleichzeitig stark beschränkt und kontrolliert. Auf linguistischer Ebene korrespondiert dies mit Frageformaten in Deklarativformen, die inhaltlich aus vollständigen Propositionen bestehen, die nur noch bestätigt werden müssen. Dies schränkt den inhaltlichen wie den kommunikativen Spielraum der Befragten ein, weil es konversationell präferiert ist, eine Bestätigungshandlung im Anschluß zu produzieren, und weil es kommunikativ nur einer minimalen Antwort (ja/nein) bedarf, um die Replik zu vollziehen. Dadurch sind die Gäste, bereits schon in reaktiver Position durch den Interviewrahmen, abhängig von einer weiteren, expliziten Aufforderung, einen längeren oder einen inhaltlich konträren Redebeitrag zu liefern. Andererseits ist auf der interpersonellen Ebene eine Deklarativfrage der HOSTs prekärer als ein klassisches Frageformat mit Fragewort und Verbinversion. Denn HOST kann ihr (interaktionell definiertes) Gesicht verlieren, wenn sie eine unrichtige oder nur teilweise richtige Proposition formuliert. In dieser Hinsicht wurde die Präferenz für Deklarativfragen als Modus des informellen Sprechens definiert, weil eine gegenseitige Abhängigkeit entsteht, die in der Regel mit dem egalitär strukturierten ChatModus assoziiert wird. Es wurde festgestellt, daß HOST/Rolonda kaum, HOST/Winfrey jedoch häufig mit diesem Format operiert, sich also auch als gleichwertiger Interaktionspartner ihren Gästen gegenüber konstituiert. Normalisierung und Messen an Standards ist ein weiteres Merkmal der Machttechnologie durch Objektivierungspraktiken. Normalisierungsversuche verweisen das Subjekt auf seinen Platz, häufig im Zusammenhang mit Normgeboten, Aufforderungen zur Veränderung usw. Normalisierende Disziplinierungsdiskurse werden in Talkshows u.a. durch die Warnungen und Zurechtweisungen des Studiopublikums gegenüber den Gästen bzw. durch den kategorischen, einflußnehmenden Redestil der ExpertInnen realisiert. Das Subjekt wird immer wieder Gegenstand und Zielscheibe für disziplinierende Interventionen und Eingriffe. Ein Äquivalent zu den objektivierenden Teilungspraktiken, die durch klare Entweder/OderTrennungen Individuen bestimmten Klassen und Ordnungen zuteilen, findet sich in der emotionell aufgeheizten, und von HOST durch Unterlassen von Schlichtungshandlungen aktive unterstützten Frontenbildung bei Rolonda zwischen den Teilnehmerkategorien GUE und AUD (Saalpublikum). An der Grenze von objektivierenden zu subjektivierenden Praktiken liegen die Verfahren, die den SprecherInnen zwar Rede abverlangen, diese aber durch kommunikative Strategien und Dynamiken in den Beteiligunsstrukturen inhaltlich bereits vorgegeben ist. Hierzu gehören u.a. Selektion von und Präferenz für bestimmte Frageformate (in der grammatischen Form des Deklarativs) und Dynamiken des Zitierens der Rede der Gäste sowie das Suggerieren, Soufflieren und Vorsprechen dessen, was das zu erkennende Subjekt erwidern muß indem ihm die Wahrheit über sein Selbst bereits fertig in den Mund gelegt wird. Zu den subjektivierenden Praktiken in Talkshows, die die Teilnehmer zum freien Reden über sich selbst bringen und diskursproduktiv wirken, zählen besonders ChatMomente in den Shows. Passagen, in denen die Gäste auch längere Redebeiträge machen ohne vorstrukturierende Fragestellungen. Die Abwesenheit von Interviewtechniken bzw. sehr offen strukturierte Frageformate geben einen Hinweis auf solche Stellen im TalkshowDiskurs. Narrative Sequenzen, die nicht von Zwischenfragen unterbrochen werden verweisen in der Interaktion zwischen den Gästen (den Alltagssubjekten) und anderen TeilnehmerInnen auf subjektivierende Momente, genauso wie die Häufung bzw. Anwesenheit von Rückmelde und Hörersignalen der Moderatorinnen denn sie sind ein Signal zum Verlängern ihres Redebeitrags, das in keiner Hinsicht strukturierend oder einschränkend wirkt. Die Analysen der Subjektpositionen und Positionierungen geben so meines Erachtens den Blick frei für zwei unterschiedliche Möglichkeiten, Diskurse mit dem Durchschnittsmenschen über seine subjektive Verfaßtheit in der Öffentlichkeit zu führen (und ein Bild von ihm in der Öffentlichkeit zu zeichnen). Es stellt sich heraus, daß die beiden TalkshowReihen unterschiedliche Präferenzen und Gewichtungen der diskursiven Korrelate subjektkonstituierender Machttechnologien aufweisen. Objektivierende Praktiken fanden sich zahlreiche in der RolondaShowreihe, viele Verfahren ausschließlich dort (Spiegelungen, derogative Untertitel, auf Kommunikationsakte ausgerichtete Dressur etc.). Der Diskurs ist auch auf der sprachlichinteraktionellen Mikroebene stark von objektiverenden Praktiken des Aussonderns, Isolierens, dem spektakulären BlickFreigebens auf Details und des inhaltlichen Vorgebens bzw. Repetition der fremden Rede (Aufoktroyieren der fremden Perspektive) geprägt. Als Objekte der analytischen und interpretierenden Rede werden sie in ihrem Subjektstatus (z.B. als eigenständige Sprecher) reduziert und mit den Regeln und Normen eines Kollektivs konfrontiert. Durch diskursive Mikropraktiken werden auf verschiedenen Ebenen Machtgefälle konstruiert, die das Talkshowsubjekt unterordnen unter die Stimmen der Autorität und des Kollektivs, die fordernd und zurechtweisend auf den einzelnen einwirken und direkten Einfluß nehmen. Konfrontative Sequenzen führen auf interpersoneller Ebene zu einem hohen Gesichtsverlust für die Gäste, die gesichtsbedrohliche Sprechhandlungen in der Regel nicht parieren können, weil HOST ihnen keine Gelegenheit gibt und der Interaktion einen "zurechtstutzenden" Grundton gibt. Durch gesichtsbedrohende Akte wie Zurechtweisung und Ermahnung wird die Distanz zu den Gästen gering gehalten, was einem umgangssprachlichen "Zunahetreten" entspricht. Zudem zeichnet sich der Diskurs durch eine extrem dramatisierende Verlaufsform aus, die eine kommunikative Katastrophe (Zusammenbruch der Interaktionsordnung), einen Dressur bzw. Disziplinierungsakt durch eine Autorität (Expertin) und die Katharsis einschließen (Reue, von HOST evozierte, nach außen gekehrte Einsichtsbekundungen und Gutheißen der "Lektion"). Der dramatische Konflikt samt Eskalationen und Konfrontationen mit den kollektiven Forderungen wird dann erst mit Hilfe von anweisenden Autoritäten gelöst. Die Ermächtigung der Autoritäten geht einher mit Objektivierungen, der Degradierung zum Objekt von fremden Blicken, fremder Rede und fremden Regeln. Allerdings auch mit der Reduzierung der Position der Moderatorin, die sich gegenüber den Experten stark zurücknimmt. Die Übernahme von Wissen ("Lernen" und Erkenntnis gewinnen) wird artikuliert als Drill und Gefügigmachen (inklusive Dankbarkeit, vgl. HOSTFrage an GUE/Kathy: Are you happy now?), und baut nicht auf Einsicht. Vorhaltungen und negative Spiegelungen sollen zur Abschreckung und Besserung dienen. Das Subjekt muß zum Nutzen der Gemeinschaft erzogen werden und sich ihren Normen unterordnen. Der SubjektEffekt dieses Diskurses ist ein Autoritäten untergeordnetes Subjekt, das bei Fehlverhalten isoliert und "an den Pranger" gestellt wird, korrekturbedürftig ist und durch Drill (nicht Einsichtsfähigkeit) an die Forderungen einer größeren Gemeinschaft anzupassen ist. Das Verhältnis zu den Autoritäten und zur Gemeinschaft ist ein stark personalisiertes und das Individuum ist gleichzeitig extrem abhängig von diesen, aber auch durch die Detaillierung und die Fokussierung auf den Einzelfall stark überhöht. Diese Entwürfe vom Subjekt lassen sich mühelos in hierarchischautoritären Kontexten wiederfinden und könnten innerhalb eines traditionellen sozio politischen "RechtsMitteLinks"Schemas möglicherweise als Bestandteil eines recht(spopulistisch)en Diskurses betrachtet werden. Die Daten aus der WinfreyReihe zeichnen sich durch insgesamt weniger objektivierende Strategien aus und weisen an manchen Stellen Spuren von subjektivierenden Verfahren auf (die Gäste kommen ausführlicher und weniger als Ausgefragte zu Wort, haben bisweilen Möglichkeiten, sich als Partner in einem informellen Gespräch zu konstituieren etc.). Mehr noch als das Vorhandensein von subjektivierenden Techniken fällt das NichtVorhandensein vieler Objektivierungsstrategien auf. D.h., eine Vereinzelung und Ausrichtung auf das Subjekt im Besonderen ist nicht auffällig ausgeprägt (sie ist vorhanden und im Fernsehen auch medienstrukturell verankert). Viel eher findet ein verallgemeinernder Diskurs statt, der das Subjekt und seine Erfahrung als Ausgangspunkt für generalisierbare Erörterungen nimmt. In den Daten gab es kaum dissentive Sequenzen, wenn es zu spontanen Frontbildungen kam, wurden diese von HOST geschlichtet, die hier untersuchten Shows weisen keine dramatisch strukturierten Formen auf jedenfalls nicht im selben Maß wie die ihrer Kollegin. Natürlich kann man im Mikrobereich sicher ebenfalls Zuspitzungen finden. Aber im Gesamtablauf ist die Show zyklisch strukturiert. Hier erscheint eine zweite Option, wie durch die Praktiken einer "Show für den Privatmenschen in seiner Alltäglichkeit" dieser medial konstituiert wird. Der einzelne wird weder auffällig häufig zum Objekt, noch wirklich frei in seiner Rede, sondern vielmehr zum Ausgangspunkt für Verallgemeinerungen gemacht. Der im Vergleich relativ weitgehende Verzicht auf Aussonderung des konkreten Falls und die Bezugnahme auf den generellen Fall hat als diskursive Korrelate Möglichkeiten der Gleichheit zwischen den Diskursteilnehmern und die Relativierung der Stimme der Autorität (der Experten). Die Übernahme von Wissen und Erkenntnis wird durch die Abhandlung der Problembereiche als denkbare Fälle und Optionen fürs Handeln der Eigenverantwortlichkeit der Subjekte anheimgestellt (ohne evozierte Affirmation und Ausstellung von Akten der Einsicht). SubjektEffekte sind: der einzelne wird als wichtiger Träger von verallgemeinerbaren Erfahrungen konstituiert, allerdings auch als einer neben vielen anderen (vgl. auch die Funktion der AUD, die die Perspektiven der Aussagen erweiteren, keine Fronten zu GUE bilden), das Verhältnis zu den anderen Diskurspositionen, v.a. zu den Autoritäten ist distanzierter, gesichtsbedrohende Sprechhandlungen sind nicht direkt an GUE gerichtet usw. Das Subjekt wird als lernfähig durch rationale Einsicht konstituiert. Analog zur Einordung in ein gesellschaftspolitisches Spektrum, könnte behauptet werden, diese Subjektkonzeptionen reflektieren Normen eines neoliberalen Diskurses der bürgerlichen Mittelschicht über das Individuum, der sich über die Besetzung der Position "egalitär" bzw. "antiautoritär" und "eigenverantwortlich" in Opposition zu "hierarchisch", "autoritär" und fremddefiniert bzw. abhängig von übergeordneten Instanzen definiert. Insofern stehen die beiden Pole der Möglichkeiten der Subjektkonzeption (und medialen Konstitution des Durchschnittsmenschen als Subjekt) in direkter Abfolge hintereinander auf dem Programm USamerikanischer Fernseh Nachmittage. Eine Entscheidung darüber, ob der immense Erfolg von Winfreys neoliberalem Diskurs, der jeden für sich allein und individuell "verantwortlich" macht, oder die Absetzung der ReiheRolonda mit ihrem autoritären und explizit hierarchisch operierenden Diskursmodus Anlaß zur Hoffnung geben sollte, muß anderen medien und sozialkritischen Untersuchungen überlassen bleiben.
Für eine erhebliche Patientenanzahl gestaltet sich bei kurativ reseziertem Primärtumor eine hepatische Metastasierung zum limitierenden Faktor für die Überlebenszeit. Aufgrund des speziellen Metastasierungsverhaltens ist das hauptsächlich die Gruppe der kolorektalen Primärtumoren, die eine hohe Inzidenz an hepatischen Filiae aufweist. Bisher profitieren nur eine sehr geringe Anzahl der Betroffenen von der Möglichkeit der operativen Resektion solitärer Läsionen. Über 70% dieser Fälle erleiden jedoch wieder intrahepatische Tumorrezidive. Die systemische oder regionale Chemotherapie konnte bisher im Vergleich zu resezierten Patienten nur geringe Verbesserungen der Überlebenszeiten bei oftmals erheblichen Einschränkung der Lebensqualität erzielen. Vor diesem Hintergrund wurde die minimal invasive Laserinduzierte Thermotherapie (LITT) entwickelt, mit der es möglich ist, perkutan gezielt Tumoren in soliden parenchymatösen Organen zu zerstören. Dabei kann das umgebende Gewebe maximal geschont und der Eingriff in lokaler Anästhesie mit einem sehr kurzem Krankenhausaufenthalt und in Kürze auch ambulant durchgeführt werden. Voraussetzung für den optimalen Erfolg eines regionalen Verfahrens ist die genaue topographischen Darstellung der erzielten Koagulationsnekrose während und nach der Intervention. Die Magnetresonanztomographie hat sich bei dieser Aufgabe als nichtinvasives und genaues Instrument zur Dokumentation der intraoperativen Temperaturausbreitung durch temperatursensitive T1gew. Sequenzen und mittels optimierter Sequenzprotokolle zur Nachkontrolle der laserinduzierten Nekrosen erwiesen. Die vorliegenden Daten für eine Gruppe von 41 Patienten aus einer frühen klinischen Phase (Phase 2) behandelt mit konventionellen Applikatorsystemen und Leistungen bis zu maximal 5,6 Watt, dokumentieren eine gute lokale Tumorkontrollrate für 3 Monate und eine noch akzeptable Remissionsrate für die 6 MonatsKontrolle. Für die Gruppe der kolorektalen Karzinome konnten mittlere Überlebenszeiten von 29 Monaten dokumentiert werden. An Nebenwirkungen traten lediglich nicht therapiebedürftige Pleuraergüsse und subkapsuläre Hämatome auf, was den patientenschonenden, minimal invasiven Charakter des Verfahrens unterstreicht. Die nach der KaplanMeierMethode berechneten kumulativen Überlebensraten von etwa 28 Monaten im Vergleich zu unbehandelten Lebermetastasen sind unter der Berücksichtigung der überwiegend palliativen Ausgangssituation der Patienten als Erfolg zu betrachten. Hier können mit weiter optimierten Applikationssystemen in der 3. Phase der klinischen Entwicklung weit höhere lokale Kontrollraten dokumentiert werden, deren Auswirkung auf die Gesamtüberlebenszeit noch untersucht werden muß. Damit wurde mit der MRgesteuerten LITT ein neues minimal invasives Therapieverfahren zur Erlangung einer lokalen Tumorkontrolle entwickelt, das in palliativer, aber auch in einzelnen Fällen in kurativer Situation eine Therapieoption für Patienten mit Lebermetastasen vor allem kolorektaler Tumoren bietet. Die gute Verträglichkeit mit der Beschränkung auf Lokalanästhesie macht auch die Behandlung von Patienten vertretbar, die durch lange Chemotherapie stark in der Lebensqualität eingeschränkt sind.
In der vorliegenden Arbeit wird die Identifizierung von Genen der Carotinoid Biosynthese (crt) aus den Coryneformen Bakterien Brevibacterium linens und Brevibacterium flavum beschrieben. Hierbei konnten sechs neue crt Gene durch funktionelle Komplementierung bestimmt werden. Außerdem wurde erstmalig die Carotinoid Biosynthese von B. flavum, darunter auch drei neue Carotinoide, beschrieben. Voraussetzung für die Klonierung der crt Gene aus B. linens war die Entwicklung eines geeigneten Komplementierungssystems. Dieses System wurde in Carotinoidmutanten von B. flavum entwickelt. So konnte eine B. linens ExpressionsBibliothek nach Passage durch mehrere E. coliStämme, unter Umgehung des starken B. flavumRestriktionssystems, in B. flavumCarotinoidmutanten auf crt Genexpression hin untersucht werden. . Durch Komplementierung der Carotinoidmutanten von B. flavum konnte das Gen der Phytoen Synthase (crtB) aus B. linens funktionell kloniert werden. Mit diesem Gen als Sonde wurde aus einer B. linensCosmid Bibliothek das gesamte crt Gencluster isoliert. Auf dem sequenzierten DNAFragment von B. linens befanden sich 14 offene Leseraster mit Ähnlichkeiten zu Sequenzen aus Datenbanken. Durch Sequenzähnlichkeiten zu bekannten Genen konnte die Gene einer GGPP Synthase (crtE), einer Phytoen Synthase (crtB) und einer Phytoen Desaturase (crtI) bestimmt werden. Außerdem wurden erstmalig die Gene einer IPP Isomerase und einer DNAPhotolyase in einem crt Gencluster identifiziert. Durch heterologe Expression in B. flavum konnte das neue Gen einer bCarotin Desaturase (crtU) funktionell nachgewiesen werden. Dieses Gen kodiert für ein Enzym, das bCarotin in das aromatische Carotin Isorenieraten umsetzt. Ebenfalls durch heterologe Expression in B. flavum wurden zwei neue Gene (crtYc und crtYd) gefunden, deren Genprodukte gemeinsam die Zyklisierung von Lycopin zu bCarotin katalysieren. Die errechnete Molmasse dieser beiden Lycopin Zyklasen ist mit 12,5 und 13,9 kDa ungewöhnlich klein. Die zwei Lycopin Zyklasegene aus B. linens kodieren für eine neue Klasse von Lycopin Zyklasen. Es bestehen keine Sequenzähnlichkeiten dieser neuen Gene zu bisher bekannten Lycopin Zyklasegenen oder zu anderen Genen bekannter Funktion. Durch die partielle Deletion einer cDNA mit Lycopin Zyklase und Phytoen Synthaseaktivität (crtYB) aus dem Pilz Xanthophyllomyces dendrorhous konnte gezeigt werden, daß die Zentren der beiden Aktivitäten in unterschiedlichen Regionen des gebildeten Polypeptids sitzen. Die Phytoen Synthaseaktivität des Genproduktes geht auf einen Bereich des Polypeptids zurück, der Sequenzähnlichkeiten zu Phytoen Synthasen anderer Organismen aufweist. Das Zentrum der Lycopin Zyklaseaktivität liegt in dem Nterminalen Bereich des Polypeptids, der interessanterweise Sequenzähnlichkeiten zu den beiden Lycopin Zyklasen aus B. linens aufweist. Dieses Fusionsgen crtYB ist das erste bekannte Gen einer pilzlichen Lycopin Zyklase. Die Entwicklung der pilzlichen crtYB Fusionsgene aus crtB und Lycopin Zyklasegenen des in B. linens gefundenen Typs wird diskutiert. Die Hauptcarotinoide von B. flavum wurden als die C 50 Carotinoide Decaprenoxanthin, Decaprenoxanthin Monoglucosid und Decaprenoxanthin Diglucosid bestimmt. Bei der Analyse von B. flavumPigmentmutanten wurden außerdem die neuen Carotinoide Nonapren [2(3Methyl2butenyl)e, ycarotin], Flavuxanthin [2,2'Bis(4hydroxy3 methyl2butenyl)y, ycarotin] und Nonaflavuxanthin [2(4Hydroxy3methyl2 butenyl)y, ycarotin] als Intermediate identifiziert. Basierend auf den nachgewiesenen Carotinoiden konnte der vermutliche C 50 Carotinoid Biosyntheseweg für B. flavum vorgeschlagen werden. Durch Sequenzanalyse von B. flavumTransposonmutanten konnten erstmalig crt Gene der C 50 Carotinoid Biosynthese isoliert werden. Auf dem crt Gencluster von B. flavum konnten die Gene crtE, crtB und crtI aufgrund von Sequenzähnlichkeiten zu bekannten Genen bestimmt werden. Heterologe Expression in E. coli und Geninaktivierung durch homologe Rekombination in B. flavum zeigten, daß die Produkte von drei weiteren Genen ausreichen, um die C 50 Carotinoide von B. flavum zu bilden. Das Produkt eines neuen Lycopin Elongasegens (crtEb) verlängert Lycopin an Position C2 und C2' um jeweils eine C 5 Isopreneinheit und bildet ein azyklisches C 50 Carotinoid. Dieses wird von den Produkten der neuen C 50 Zyklasegene crtYe und crtYf zu einem zyklischen C 50 Carotinoid umgesetzt. Die Ergebnisse zeigen, daß entgegen früherer Vorstellungen, die Addition einer Isopreneinheit und die Zyklisierung bei der Bildung von zyklischen C 50 Carotinoiden zwei getrennte Schritte sind.
In der vorliegenden Arbeit untersuchen wir die Verteilung der Nullstellen Dirichletscher L-Reihen auf oder in der Nähe der kritischen Geraden. Diese Funktionen und ihre Nullstellen stehen im Mittelpunkt des Interesses bei einer Vielzahl klassischer zahlentheoretischer Fragestellungen; beispielsweise besagt die Verallgemeinerte Riemannsche Vermutung, daß sämtliche Nullstellen dieser Funktionen auf der kritischen Geraden liegen. Unsere Ergebnisse gehen unter anderem über die besten bislang bekannten Abschätzungen - für den Anteil der Nullstellen der Dirichletschen L-Reihen, die auf der kritischen Geraden liegen, - für den Anteil einfacher beziehungsweise m-facher Nullstellen sowie - über Nullstellen in der Nähe der kritischen Geraden hinaus. Wir setzen hiermit Arbeiten von A. Selberg, N. Levinson, J. B. Conrey und anderen fort und verallgemeinern Ergebnisse, die für die Riemannsche #-Funktion gültig sind, auf alle Dirichletschen LReihen beziehungsweise verbessern bisherige Resultate. Nach einer ausführlicheren Darstellung der Hintergründe zeigen wir einen Satz über Mittelwerte "geglätteter" L-Reihen, d.h. mit einem geeigneten Dirichlet-Polynom multiplizierte L-Reihen. Solche Mittelwertsätze stellen ein wesentliches Hilfsmittel zur Untersuchung der Nullstellenverteilung dar. Die in unserem Hauptsatz gegebene asymptotische Darstellung dieses Mittelwertes können wir dann nutzen, um die genannten Ergebnisse herzuleiten.
Die chilenische Geschichte ist seit der Unabhängigkeit von Spanien von einer für lateinamerikanische Verhältnisse ungewöhnlichen Dialogtradition gekennzeichnet. Die chilenischen Lehrer und ihre Organisationen spielten in dieser Dialogtradition eine besondere Rolle. Sie trugen zur Begründung dieser Tradition bei, waren ein bewußter Teil der Mittelschicht, der die Rolle der gesellschaftlichen Vermittlung zwischen den widerstreitenden Interessen des agroindustriellen Bürgertums und der Arbeiterbewegung zukam, und sie vertraten diesen Historischen Kompromiß in Schulen und Bildungszentren. Die chilenische Verfassung von 1925 ist ein Beispiel für diese Dialogtradition. Sie ist das Ergebnis einer gelungenen Konsenssuche und etabliert diesen Konsens für fast ein halbes Jahrhundert. Die chilenische Lehrerorganisation hat eine wichtige Rolle bei der Formulierung dieser Verfassung gespielt. Durch die Verfassung wurde es möglich, daß viele gremialistische, gewerkschaftliche und kooperative Gruppierungen sich parteiförmig organisierten und ihre Partialinteressen gesamtgesellschaftlich einbrachten. Die Verfassung von 1925 wies dem Staat die Rolle zu, soziale Sicherheiten zu garantieren und die Entwicklung des Landes voranzutreiben. Besonders die allgemeine Schulpflicht gehörte zu diesen Neuerungen. Den Lehrern und ihren Organisationen kam durch ihre Beteiligung an der Verfassung und die Verbreiterung des Bildungswesens die Rolle eines gesellschaftlichen Subjektes zu. Sie waren im Sinne Gramscis "organische Intellektuelle". Von 1925 bis zum Militärputsch von 1973 prägte die Mittelklasse die chilenische Gesellschaft. Die "Kultur der Mittelklasse" (G. Vial) wurde zur vorherrschenden Kultur. Die Lehrer waren in dieser Zeit Protagonisten der gesellschaftlichen Entwicklung und wurden zu gesellschaftlichen Vermittlern mit "anerkannten Fähigkeiten", 90 wenn es um die großen Erziehungsprobleme Chiles ging. Eine wichtige Etappe in diesem Prozeß war die Erziehungsreform von 1928. Die chilenischen Lehrer waren auf diese Aufgabe dadurch vorbereitet, daß sie den unterschiedlichsten philosophischen und politischen Strömungen (Agnostiker, Christen, Freimaurer und Marxisten) angehörten. 90 Episcopado chileno, Reforma educacional, Julio, 1981,S. 371 Seit der zweiten Hälfte der zwanzigsten Jahrhunderts gewann die marxistische Linke vor allem die Sozialisten und Kommunisten, die seit den zwanziger Jahren im Parlament vertreten waren unter den chilenischen Lehrern an Einfluß. Der Einfluß der bis dahin vorherrschenden Radikalen Partei schwand, und an deren Stelle trat die christdemokratische Partei. In dieser Situation entstand die Lehrergewerkschaft SUTE. Die SUTE setzte sich für eine neue Erziehungsreform ein, in deren Zentrum das Konzept einer "Nationalen Einheitsschule" (Escuela Nacionál Unificada, ENU) stand. Neben einer besseren Vermittlung von Theorie und Praxis sollte diese Schule den "neuen Menschen" in einer sozialistischen Gesellschaft schaffen. Die Kampagne für die ENU traf auf den geeinten Widerstand der katholischen Kirche und der rechten Parteien und Organisationen Chiles. Der sozialistische Präsident Allende, der in der Tradition konsensualer Vermittlung stand, gab unter diesem Druck das Reformprojekt auf. Der Militärputsch von 1973 brach mit der chilenische Dialogtradition. Die Lehrer verloren unter Pinochet fast alles, was sie bis dahin erreicht hatten, vor allem aber die Möglichkeit, an Entscheidungen in Fragen der Erziehungspolitik teilzunehmen. Namhafte Wissenschaftler und viele qualifizierte Lehrer wurden aus politischen Gründen entlassen, wenn nicht gar verhaftet oder ins Exil gezwungen. Die Schulen wurden privatisiert oder in kommunale Trägerschaft überführt. Die pädagogischen Hochschulen wurden in die Universitäten integriert, ein Schritt, der auf gespaltene Ressonanz stieß. Ein Teil der Lehrer sah darin eine Aufwertung des Erzieherberufs, andere hingegen die Zerstörung des traditionellen Ausbildungswesens der Lehrerschaft. Die Militärregierung löste den SUTE auf und ersetze ihn durch das Colegio de Profesores, das auf der Seite der Militärs stand. Ein von der Regierung erlassenes Anstellungsstatut verschlechterte mittelfristig die Situation der Lehrer. Sie waren durch diesen Statut und durch die Privatisierung und Kommunalisierung nun nicht mehr dem Erziehungsministerium, sondern oft nichtpädagogischen Chefs wie Bürgermeistern und privaten Schulträgern und unternehmern zugeordnet, die sich oft wie "kleine Diktatoren" (Schulak) benahmen. Inmitten einer Periode völliger gesellschaftlicher Immobilität, die nach dem gewaltsamen Putsch eingetreten war, bildeten sich erste Oppositionsgruppen innerhalb des Colegio de Profesores und, alternativ dazu, die Lehrergewerkschaft AGECH (Asociación Gremial de Educadores de Chile). Die Wahlen zum Colegio de Profesores 1985 und die Opposition der AGECH spielten eine wesentliche Rolle bei der breiten Opposition gegen das Militärregime, die 1983 begann. Die chilenischen Lehrer und ihre Organisationen waren neben der Menschenrechtsbewegung diejenige Gruppierung, die den Minderheitenkonsens der Pinochetregierung, der aus dem negativen Konsens der militärischen Elite hervorgegangenen war, in einer Weise herausforderte, die die Streitkräfte zwang, in eine Dialogpolitik einzutreten, die schließlich zum Übergang zur Demokratie (transición) führte.
In der vorliegenden Arbeit wurde ein durch Zellschrumpfung aktivierter nichtselektiver Kationenkanal, der in der M1 Sammelrohrzellinie der Maus bereits früher beobachtet worden war [Volk et al., 1995], hinsichtlich seiner Selektivität, seines Inhibitorspektrums und seines Aktivierungsmechanismus mittels der Patch ClampTechnik näher charakterisiert, und es wurde geprüft, ob dieser oder ein ähnlicher Kanal auch von anderen Zellinien exprimiert wird, wobei außer epithelialen Zellinien (HT 29 , BSC1) auch solche aus Muskel (A10) und Ner vengewebe (Neuro2a) untersucht wurden. Zellschrumpfung in symmetrischer NaClLösung mit Zusatz von 100 mM Saccharose im Bad stimulierte einen von Kationen getragenen Einwärtsstrom. Während der initialen Phase der Aktivierung durch extrazelluläre Hyperosmolarität konnten Schaltvorgänge von Einzelka nälen beobachtet werden. Die Einzelkanalleitfähigkeit in den verschiedenen Zellinien betrug 15 bis 27 pS. Der Strom stieg nach wenigen Minuten um das 30 bis 60fache an. Austausch des extrazellulären Natriums durch das schlecht permeierende NMDG führte zum kompletten Sistieren des Einwärtsstroms. Die Aktivierung des nichtselektiven Kationenstroms war unab hängig von der absoluten Osmolarität der Badlösung. Sie wurde ausschließlich durch osmo tisch bedingte Volumenabnahme (Schrumpfung) der Zellen hervorgerufen, wobei die Zell schrumpfung der Aktivierung des Stroms geringgradig vorauseilte. Die Aktivierung durch Zellschrumpfung war reversibel und konnte mit dem gleichen Zeitverlauf und mit der glei chen Leitfähigkeitszunahme auch zweimal hintereinander ausgelöst werden. Die stimulierte Kationenleitfähigkeit war hochselektiv für Kationen über Anionen, aber nichtselektiv für die monovalenten Kationen NH 4 , Natrium, Kalium und Lithium (Leitfähig keitssequenz NH 4 > Na > K > Li ). Für divalente Kationen wie Kalzium und Barium war keine Leitfähigkeit meßbar. Flufenaminsäure (100 µM) hemmte den stimulierten Einwärts strom um mehr als 80 %, Diphenylamin2Carboxylsäure (DPC) und sein Derivat Dichlor DPC (DCDPC) hatten einen etwas geringeren Hemmeffekt. Noch schwächer hemmte LOE 908. Amilorid, Quecksilber und Bumetanid hatten praktisch keine Hemmwirkung auf den stimulierten Einwärtsstrom. Maitotoxin, ein Aktivator mancher nichtselektiver Kationenka näle, hatte unter isoomotischen Bedingungen keine stimulatorische Wirkung auf den Strom. Im Gegensatz zum Ca 2 aktivierten nichtselektiven Kationenkanal, der in exzidierten Membranflecken beobachtet wird, war die Aktivierung des schrumpfungsinduzierten nicht selektiven Kationenkanals unabhängig von der zytoplasmatischen Ca 2 Konzentration. Das Ausmaß der Stimulation war allerdings vermindert, wenn die Pipettenlösung hohe Konzen trationen von Kalziumchelatoren (10 mM EGTA oder 10 mM BAPTA) enthielt. Dagegen hemmte Magnesiumentzug die Antwort auf Zellschrumpfung fast vollständig. ATP in Kon zentrationen bis 10 mM in der Pipettenlösung konnte die Aktivierung des Einwärtsstroms nicht verhindern, nur reduzieren. Dagegen unterdrückte ATPVerarmung der Zellen (durch Inkubation mit Rotenon und 2Deoxyglukose) die Antwort auf Zellschrumpfung völlig. Auch durch Zusatz von 1 mM ATP zur Pipettenlösung konnte die Antwort in ATPverarmten Zel len nicht wiedergewonnen werden, obwohl die Zellen nach Auswaschen der Stoffwechsel gifte wieder normal reagierten. Die Proteinkinasehemmstoffe Staurosporin und Calphostin C (beide in der Konzentration von 1 µM) konnten die Antwort unterdrücken. Einige auf das Zytoskelett wirksame Substanzen (Cytochalasin D und Taxol) hatten ebenfalls hemmende Wirkungen. Die Befunde der vorliegenden Arbeit zeigen, daß der schrumpfungsaktivierte nichtselekti ve Kationenkanal offenbar ubiquitär exprimiert wird. Der Aktivierungsmechanismus ist kom plex und abhängig von intrazellulärem ATP und Magnesium. Vermutlich sind Proteinkinasen und Zytoskelettelemente an der Kanalaktivierung beteiligt. Der Kanal dürfte im Rahmen der Zellvolumenregulation von Bedeutung sein und spielt möglicherweise eine Rolle für Zellpro liferation und Apoptose.
Im 18. und 19. Jahrhundert entstanden, durch die Erkenntnisse, die in Anatomie, Physiologie, Bakteriologie und Zellularpathologie gewonnen wurden, im Wesentlichen die Grundlagen der modernen Medizin. Darauf aufbauend kam es rasch zu einem enormen Wissenszuwachs aller medizinischen Teilbereiche, ermöglicht durch eine naturwissenschaftliche Methodik sowie die technische Revolution auf allen Gebieten des ärztlichen Diagnoseinstrumentariums. Hieraus resultierte ab Mitte des 19. Jahrhunderts einerseits die Abspaltung von Spezialfächern und deren eigenständige Weiterentwicklung, andererseits zeigte sich jedoch, daß wesentliche Fortschritte nur in Zusammenarbeit mit anderen Fachdisziplinen zu erreichen waren (Münchow 1984 S.670) Für die Augenheilkunde, die bis zum Beginn des 19. Jahrhunderts noch der Chirurgie unterstand, begann Mitte des 19. Jahrhunderts die Reformzeit (Hirschberg 1918 S.324). Es erfolgte die schrittweise Loslösung der Ophthalmologie von den beengenden Fesseln der Chirurgie. Hierbei übernahm die Wiener Schule eine Vorreiterrolle. Bereits 1812 wurde in Wien die Augenheilkunde von der Chirurgie getrennt und Georg Josef Beer (17631821), der wegen seines operativen Könnens Weltruhm erlangt hatte, zum außerordentlichen Professor für Augenheilkunde ernannt. 1818 erhielt er das Ordinariat. 1820 wurde in Prag der erste Lehrstuhl für Ophthalmologie eingerichtet. Von hier kam auch Ferdinand von Arlt (18121887), der 18561883 Leiter der Wiener Augenklinik war. Aus seiner Schule gingen viele bekannte Ophthalmologen hervor, unter anderem Albrecht von Graefe, der später eine zentrale Rolle in der Entwicklung der deutschen Augenheilkunde einnahm. In England, Frankreich und Deutschland wurde die Augenheilkunde erst in der zweiten Hälfte des 19. Jahrhunderts als eigenständiges Fach gelehrt. LouisAuguste Desmarres (18101882) gründete in Paris 1842 eine private Augenklinik und hatte den Mut sich ganz der Ophthalmologie zu widmen. 1 Sein Buch: "Traité théorique et pratique des maladies des yeux" trug wesentlich zur Loslösung der Augenheilkunde von der Chirurgie bei. Desmarres war ein hervorragender Operateur. Seinem praktischen Sinn verdanken wir eine Reihe ophthalmologischer Instrumente wie beispielsweise den Desmarreschen Lidhaken, der heute noch gebraucht wird (Rintelen 1961 S.401). In London betrieb William Bowman (18161892) intensive histologische Studien und beschrieb unter anderem die nach ihm benannte Glomerulumkapsel der Niere. Besonders befaßte er sich mit der Histologie des Auges. 1847 beschreibt er die Lamina elastica anterior der Hornhaut, die Bowmansche Membran (Rintelen 1961 S.402). Von Graefe lernte Desmarres während seines Studienaufenthaltes in Paris kennen und hospitierte in dessen Privataugenklinik (Münchow 1984 S.596). Der Utrechter Augenarzt und Physiologe Franz Cornelius Donders (18181889), der in engem Kontakt mit Albrecht v. Graefe stand, beschäftigte sich eingehend mit den Anomalien der Refraktion und Akkomodation und hat sich vornehmlich um die Einfühung prismatischer und cylindrischer Brillen verdient gemacht. 1863 stellte er das erste Tonometer vor. Er veranlaßte die Augenärzte sich selbst mit der Brillenverordnung zu befassen und sie nicht länger herumreisenden Händlern zu überlassen (Sasse 1974 S.46). Die deutsche Augenheilkunde rückt 1850 mit dem Königsberger Physiologen Hermann von Helmholtz und dem Berliner Augenarzt Albrecht von Graefe in den Vordergrund. Von Helmholtz (18211894) verdankt die Medizin die Erfindung des 1850 vorgestellten Augenspiegels (Hirschberg 1918 S.73). Jetzt bot sich die Gelegenheit, Licht auf die Erkrankungen der Retina zu werfen und somit Wesentliches zur Selbständigkeit und Geltung der jungen aufstrebenden Augenheilkunde beizutragen. Andererseits führte die Weiterentwicklung der Untersuchungstechniken zu einer Annäherung an andere Fachdisziplinen. Beispielsweise wurde durch die Erkenntnis, daß typische Augenhintergrundveränderungen bei bestimmten Stoffwechsel oder Organerkrankungen zu sehen waren, eine Brücke zur Inneren Medizin geschlagen (Bader 1933 S.70). Aufgrund des enormen Wissenszuwachses auch in anderen Spezialgebieten entwickelte sich eine tiefgreifende Beziehung der einzelnen Disziplinen untereinander. Albrecht von Graefe (18281870), dessen Vater Carl Ferdinand von Graefe Professor für Chirurgie und Augenheilkunde an der Universität Berlin war, übernahm die zentrale Rolle im Ausbau der modernen Augenheilkunde in Deutschland. Nach dem Medizinstudium in Berlin folgten Reisen nach Prag, Wien, Paris und London, wobei er Einblick in die jüngsten Entwicklungen des neuen Augenfaches nehmen konnte. 1851 ließ er sich im Alter von 22 Jahren in Berlin nieder und richtete eine kleine Privataugenklinik mit zwei Zimmern ein (Münchow 1984 S.596). 1851 bekam er von Hermann von Helmholtz eines der ersten Exemplare des Augenspiegels, mit dessen Hilfe er maßgebliche Erkenntnisse der Krankheiten des Augenhintergrundes gewonnen hat. Nachfolgende Zusammenstellung der Diagnosen aus den ersten beiden Jahrzehnten nach Erfindung des Augenspiegels, gibt einen Hinweis auf die Bedeutung von Albrecht von Graefe, seinen Freunden und Schülern.
Die Zahl der jährlich in der Bundesrepublik vorgenommenen Schwangerschaftsabbrüche wird auf weit über 250.000 geschätzt. Auf drei Lebendgeburten kommt somit ein Abbruch. Mit Hilfe eines Fragebogens und ergänzender Daten aus der Patientenkartei werden im Zeitraum vom 08.09.1994 bis 12.04.1996 103 Patientinnen im Alter von 16 bis 45 Jahren befragt, die eine Allgemeinarztpraxis in Südhessen zu einem Schwangerschaftskonfliktberatungsgespräch aufsuchen. Über 90 % der Frauen wohnen weniger als 20 km von der Praxis entfernt. Der Anteil der Verheirateten, Ausländer und Berufstätigen beträgt jeweils ca. 50 %. Über 80 % haben höchstens 2 Kinder. 64 % der Frauen haben zuvor noch keinen Abbruch durchführen lassen. Die Beratungsgespräche finden zu 69 % fünf bis acht Wochen nach der letzten Regelblutung statt. Knapp 60 % der Patientinnen führen keine sichere Verhütung durch. 57 % der Gründe, die zum Abbruch veranlaßten, waren soziale Notstände, Überforderung der alleinstehenden oder sich nicht reif genug fühlenden Mutter oder berufliche Gründe. Lediglich einer Patientin wurde im Falle des Austragens des Kindes Unterstützung durch ihr soziales Umfeld zugesagt. Nur 24 % sahen ihre finanzielle Situation, 37,5 % ihre Wohnverhältnisse als ausreichend an. In über 52 % der Fälle entstammt das Kind einer krisenhaften Partnerschaft. 17 % der Partner sind arbeitslos, 10 % befinden sich noch in der Ausbildung. Weniger als 13 % der Schwangeren werden zur Beratung von ihrem Partner begleitet. Außer bei sechs medizinisch indizierten Abbrüchen liegt bei fast allen Fällen eine komplexe, multifaktoriell bedingte, soziale Problematik oder eine soziale Notsituation vor. Entgegen den Inhalten der öffentlichen Diskussion, die meist auf juristischer Ebene geführt wird, befindet sich die Mehrzahl der Ratsuchenden in einer ambivalenten Konflikt und/oder Notsituation. Bezüglich der Konfliktsituation sollte der ungewollt Schwangeren geholfen werden, den zugrundeliegenden Konflikt selbst zu erkennen, um eine von ihr selbst verantwortbare und tragbare Konfliktlösung finden zu können. In sozialen Notsituationen sehen ungewollt Schwangere keine Alternative zum Schwangerschaftsabbruch. Staatlich zugesicherte Hilfen auch wenn sie durch Hilfeleistungen des sozialen Umfeldes ergänzt werden stehen in einem deutlichen Mißverhältnis zu den Bedürfnissen der Schwangeren. Ist die junge Mutter alleinstehend, so ist sie trotz staatlicher Zuwendungen nur sehr eingeschränkt in der Lage, für ihren und des Kindes Lebensunterhalt zu sorgen. In einer Partnerschaft oder Familie bringt die Geburt eines Kindes häufig den Verdienstausfall der Mutter mit sich, was die soziale Situation der Betroffenen erschwert. Um erweiterte Problemlösungsansätze erarbeiten zu können, wäre eine öffentliche Diskussion erforderlich. Sie müßte zum einen die Prävention (Sexualpädagogik, Antikonzeptionsaufklärung) fördern und zum anderen die realen Bedürfnisse ungewollt Schwangerer in Konfliktsituationen berücksichtigen, um ihre soziale Sicherheit und Integration in die Gesellschaft zu gewährleisten.
Meloxicam ist ein neues Antirheumatikum aus der Reihe der Oxicame. Es hemmt nicht nur die rheumatischen Entzündungssymptome, sondern es wirkt zusätzlich der Knochen und Knorpeldestruktion entgegen. Meloxicam zeigt die bisher größte Hemmwirkung auf die Prostaglandinsynthese. Durch die stärkere Hemmung der Cyclooxygenase 2 sind die gastralen Nebenwirkungen deutlich geringer im Vergleich zu den bisher etablierten nichtsteroidalen Antirheumatika. Meloxicam besitzt eine Halbwertszeit von etwa 20 Stunden. Die Metaboliten werden jeweils zur Hälfte über Urin und Fäces ausgeschieden. Diese Studie beschreibt die Pharmakokinetik von Meloxicam bei einmaliger Dosierung von 15 mg an 12 Patienten mit terminaler Niereninsuffizienz im Vergleich zu 12 gesunden Probanden, welche in Alter, Größe und Geschlecht den Patienten entsprachen. Die nüchternen Patienten bekamen am Tag nach der Dialyse morgens eine Kapsel Meloxicam. Über zwei Tage erfolgten regelmäßige Blutentnahmen zur Bestimmung der Plasmakonzentrationen. Zusätzlich erfolgte eine Entnahme nach der nächsten Dialyse zur Kontrolle der Dialysierbarkeit von Meloxicam. Die Plasmakonzentrationen wurden mittels eines spezifischen und validierten HPLCAssays bestimmt. Die Plasmakonzentrationen waren bei den terminal niereninsuffizienten Patienten signifikant geringer ( 14,6 vs. 39,1 µg . h/ml ). Auch die mittlere EliminationsHalbwertszeit war in dieser Gruppe etwas geringer ( 17,9 h vs. 26,1 h ). Die freien Meloxicamkonzentrationen waren dagegen deutlich erhöht im Vergleich zu den gesunden Probanden ( 0,895 % vs. m 0.28 % / w 0,30 % ). Dies drückt sich auch in der mittleren Gesamtclearance aus, welche bei den niereninsuffizienten Patienten signifikant höher war ( 18,9 vs. 7,09 ml/min. ). Meloxicam wird über einen Metabolismus eliminiert, der vermutlich von der freien Plasmakonzentration abhängig ist. Die maximale freie Plasmakonzentration Cmax ist bei den niereninsuffizienten Patienten signifikant höher ( 0,0050 µg/ml vs 0,0026 µg/ml ), während die freie Konzentration AUC 0¥ bei beiden Gruppen nahezu gleich hoch ist ( 0,13 vs 0,11 µg . h/ml ). Patienten mit terminaler Niereninsuffizienz zeigen signifikant geringere Meloxicam Plasmakonzentrationen als die gesunden Vergleichsprobanden, die Konzentration freien Meloxicams, welche das entscheidende Kriterium für Wirkungen und Nebenwirkungen der Substanz darstellt, ist dagegen höher. Daraus folgt, daß Meloxicam bei Patienten mit terminaler Niereninsuffizienz geringer als bei nierengesunden Patienten dosiert werden sollte. Eine Dialysierbarkeit von Meloxicam konnte nicht festgestellt werden. Meloxicam wurde von Patienten und Probanden gut vertragen.
Bei weltweit steigender Inzidenz von Krebserkrankungen in Verbindung mit den beträchtlichen Kosten für die Therapie und limitierten finanziellen Ressourcen ist eine wirtschaftlich sinnvolle Verteilung der Geldmittel die erstrebenswerteste Strategie um für ein Maximum an Patienten eine den Umständen entsprechend maximal wirksame Therapieform zu ermöglichen. Zur Beurteilung der Kostenentstehung und verteilung bei Krebstherapien wurde eine retrospektive Analyse hinsichtlich der Dauer der verschiedenen Abschnitte der Therapie bei 30 Patienten (13 Frauen, 17 Männer) durchgeführt und die Kosten der unterschiedlichen Behandlungsabschnitte betrachtet. Am Beginn stand dabei die Frage nach der Definition der Start und Endpunkte der einzelnen zeitlichen Intervalle und am Schluß die Ermittlung der Kosten pro Zeiteinheit, um Vergleiche der einzelnen Therapieintervalle auf ökonomischer Basis zu ermöglichen. Dabei ergab sich schon für die relativ kleine Stichprobe mit verschiedensten Anamnesen und Therapiezeiten ein verlängertes kuratives Behandlungsintervall im Gegensatz zu einer im Vergleich kürzeren palliativen Behandlungsdauer. Dabei konnte gezeigt werden, daß die Kosten pro Behandlungstag in der Regel für die kurative Behandlung geringer ausfielen als für die palliative, wobei sich der stationäre Aufenthalt in jedem Fall als maßgeblicher Kostenfaktor herausstellte. Generell scheinen die Ergebnisse darauf hinzudeuten, daß, während sich die kurativen Kosten in gewissen Grenzen prognostizieren lassen, dies bei den palliativen Kosten so nicht vorhersagbar ist. Aufgrund der Qualität der retrospektiv gewonnenen Daten und ihrer eingeschränkten Übertragbarkeit sollte die Wertigkeit dieser Aussage jedoch auch mit der nötigen Kritik betrachtet werden.
Defluran ist ein volatiles Inhalationsästhetikum aus der Gruppe der halogenierten Methyl-Äthyl-Äther. Eines seiner Nebenwirkungen ist die Verstärkung eines kompetitiven neuromuskulären Blocks. Die vorliegende Dissertation untersucht den Einfluss von Desfluran auf die Wirkstärke der nichtdepolarisierenden Muskelrelaxan zien Vecuronium, Atracurium und Pancuronium. Patienten der ASA-Klassifikation I und II wurden randomisiert in fünf Untersuchungsgruppen aufgeteilt. Die Wirkstärke-Untersuchungen der verschiedenen Muskelrelaxanzien wurden jeweils unter Desfluran-Narkose und als Kontrollgruppe unter modifizierter Neuroleptanästhesie durchgeführt. Die Messung der neuromuskulären Funktion wurde mechanographisch durchgeführt. Mit Hilfe der gefundenen kumulativen Effekte und der gegebenen kumulativen Dosen wurden für jeden Patienten durch semilogarithmische Regressionsanalysen eine kumulative Dosis-Wirkungskurve berechnet und individuelle 50-%- bzw. 95-%- Blockadedosen (ED50, ED95) ermittelt. Die resultierenden ED50- (ED95-)Werte wurden nach Untersuchungsgruppen zusammengestellt und mit Hilfe eines nicht-parametrischen Tests auf statistisch signifikante Unterschiede zwischen den Gruppen untersucht. Signifikanzniveau war die Irrtumswahrscheinlichkeit von 5%. Desfluran potenziert die relaxierende Wirkung der nichtdepolarisierenden Muskelrelaxanzien Vecuronium, Atracurium und auch Pancuronium. Bezogen auf die ED50 von Vecuronium liegt die potenzierende Wirkung von Desfluran bei 33% und für Atracurium bei 36%. Bezogen auf die ED95 von Vecuronium liegt die potenzierende Wirkung von Desfluran bei 34% und für Atracurium bei 38%. Vecuronium und Atracurium werden durch Desfluran in geringfügigem Masse unterschiedlich potenziert. Zusammenfassend lässt sich sagen, dass Desfluran die Wirkung der nichtdepolarisierenden Muskelrelaxanzien Vecuronium, Atracurium und Pancuronium um ein Drittel ihrer Wirkstärke potenziert, das heisst, um die gleiche Wirkung zu erhalten, ist eine Dosisreduktion der Muskelrelaxanzien um ca. ein Drittel vorzunehmen. Zudem lässt sich anhand von vergleichenden Daten aus der Literatur nachweisen, dass die Potenzierung kompetitiver Muskelrelaxanzien durch die Ätherderivate Desfluran/Isofluran substanz unabhängig ist, wobei sich die Substanzunabhängigkeit sowohl auf die verwendeten Muskelrelaxanzien als auch auf die applizierten Ätherderivate bezieht.
Primäres Ziel dieser Arbeit war es, einen direkten Beweis für die Annahme zuerbringen, dass eine starke Intensitätsabhängigkeit der N1/P2- Komponente des AEPs und im besonderen des tangentialen Dipols durch eine erniedrigte serotoninerge Neurotransmission verursacht wird. Gleichzeitig konnte als klinisch relevanter Effekt die mögliche Verwendbarkeit der Intensitätsabhängigkeit als biologischer Marker für das Aktivitätsniveau des serotoninergen Systems getestet werden. Durch das Studiendesign wurde zusätzlich die Überprüfung des allgemein postulierten Zusammenhanges zwischen einer impulsiv-aggressiven Persönlichkeitsstruktur und einer hohen Intensitätsabhängigkeit evozierter Potentiale als Nebenziel ermöglicht. Mit Hilfe in ihrer Zusammensetzung verschiedener Aminosäure-Mischungen, die eineperiphere Tryptophandepletion herbeiführen, sollte eine verminderte zentrale serotoninerge Neurotransmission erzielt werden.Die Intensitätsabhängigkeit des AEPs an den Tagen mit verminderter Verfügbarkeit des einzigen Präkursors von Serotonin, der essentiellen Aminosäure Tryptophan, wurde im Vergleich zu einem Kontrolltag überprüft, an dem nur ein Placebo verabreicht worden war.Dazu wurden 13 gesunde Probanden (7w, 6m) im Alter von 24-32 Jahren nach ausführlicher psychologischer Erfassung ihrer Persönlichkeitsstruktur einemdoppelblinden, placebokontrolliertem Cross-over Studiendesign unterworfen, in dem jede Versuchsperson die Aminosäure-Mischung Young 50 bzw. 100 und Moja als Tryptophandepletionstest (TDT) neben einem Placebo erhielt. Die Intensitätsabhängigkeit des AEPs am Kontrolltag wurde mit den bei der Voruntersuchung erhobenen Persönlichkeitsmerkmalen in Zusammenhang gesetzt. Das Hauptergebnis dieser Arbeit war eine positive Korrelation der Plasmatryptophanspiegels mit der Intensitätsabhängigkeit des tangentialen Dipols des N1/P2-Komplexes (r=0,46; p<0,05).Dies steht im Widerspruch zu den bisher veröffentlichten Arbeiten zu diesem Thema. Ein Grund für dieses konträre Resultat mag eine durch den TDT nicht herbeigeführte Erniedrigung der zentralen serotoninergen transmissiven Aktivität sein. Zudem wurden die meisten anderen Untersuchungen an Patienten, bei denen eine Störung im serotoninergen System von vornherein angenommen worden war, vorgenommen, was einen Hauptunterschied zu dieser Studie, die mit gesunden Probanden durchgeführt worden war, darstellt. Und ob bei normalen Probanden eine Tryptophandepletion es vermag, eine Erniedrigung serotoninerger Neurotransmission zuverursachen, bleibt fraglich. Auch ist die Intensitätsabhängigkeit des AEPs wohl nicht ein rein spezifischer, sondernhöchstens ein relativ spezifischer Parameter für die zentrale Aktivität serotoninerger Neurone. Sie kann also auch von anderen Transmittersystemen mit beeinflusst sein. Mit der unterschiedlichen Ausprägung der Intensitätsabhängigkeit des AEPs in den Hemisphären liess sich allerdings ein weiteres Indiz für eine funktionelle Seitenasymmetrie in der Reizverarbeitung und wohl auch im serotoninergen Stoffwechsel finden. Aber auch das Ergebnis, dass die Intensitätsabha"ngigkeit des radialen und tangentialen Dipols teilweise hochsignifikant negativ mit als eher aggressiv und impulsiv zu beurteilenden Eigenschaften korrelierte, widerspricht den bisherigen Studienergebnissen, nach der eine hohe serotoninerge Neurotransmission generell inhibierend auf das Verhalten wirke, und somit Aggressivitä"t und Impulsivität beiPersonen mit hoher Intensitätsabhängigkeit evozierter Potentiale auftreten müsste. Zweifel, ob die Intensitätsabhängigkeit wirklich den geeigneten Parameter zur Beurteilung des Aktivitätsniveaus im serotoninerge System darstellt, lassen das Ergebnis weniger widersprüchlich erscheinen. Ebenso erfordert die Komplexität des Zusammenspiels vieler verschiedener Modulatoren wohl eine enger gefasste Fragestellung, die auch andere Transmittersysteme, wie etwa das noradrenerge und dopaminerge, und Hormone, wie Testosteron oder Cortisol, mit einschliesst. Eine Beteiligung des serotoninergen Transmittersystems bei der Beeinflussungaggressiven und impulsiven Verhaltens lässt sich jedoch aus der Beobachtung vermuten, dass die Veränderung der Intensitätsabhängigkeit durch den Tryptophandepletionstestsich bei verschieden Persönlichkeitstypen anders verhielten. Neugierverhalten und Impulsivität zeigten eine signifikant negative Korrelation, mit der depletionsabhängigen Steigungsänderung (DSA"), Schadensvermeidung dagegen eine signifikant positive. Die Auswirkungen des TDT auf die Befindlichkeit und das Verhalten derteilnehmenden Probanden waren Themen einer anderen Arbeit (Sadigorsky, in Vorbereitung), ebenso wie die neuropharmakologischen Aspekte der Tryptophandepletion (Kewitz, in Vorbereitung). Durch die hier vorgestellten Ergebnisse erfährt die Hoffnung, einen biologischen Marker für einen für die Genese vieler psychiatrischer Störungen wichtigen Neurotransmitter gefunden zu haben, der nicht invasiv ist und schnell Einzug in dieklinische Routinediagnostik halten könnte, leider keinen Rückhalt. Zu viele Zweifel bestehen an der Aussagekraft und Spezifität dieses Funktionsparameters.
Die präventive Rückenschule zu Pferde ist eine Möglichkeit haltungsgefährdete Kinder, besonders solche, die nicht zur aktiven Teilnahme an einer konventionellen Rückenschule zu bewegen sind, durch den besonderen Anreizdes Pferdes zu rückenschonendem Verhalten zu motivieren. In mehreren Pilotstudien konnten ermutigende Beobachtungen gemacht werden. Verschiedene Verfahren zur Evaluation einer Rückenschule wurden betrachtetund eine Bewertung wurde vorgenommen. Im Vordergrund der Betrachtung standen die Haltung und eventuelle Beschwerden. Die Beurteilung der Haltungdurch den Orthopäden im Rahmen einer körperlichen Untersuchung erscheint uns als das verlässlichste Instrument. Von besonderer Bedeutung ist hierbei der Halteleistungstest nach Matthias. Der Einsatz von Fragebogen erfasst den Parameter Beschwerden am sichersten. Ultraschallvermessungen zur Haltungsbeurteilung und Mobilitätsbestimmung sind wegen unklarer Validität der Daten noch nicht zu empfehlen. Auch die Erfassung von Ausdauer oder Erschöpfung sowie Kraftzunahme ist mit der Elektromyographie noch nicht sicher zu leisten. Zukünftige Entwicklungen bleiben abzuwarten. Die Durchführung der "Präventiven Rückenschule zu Pferde" ist nach unseren positiven Erfahrungen empfehlenswert.
Bei dem familiären Mittelmeerfieber handelt es sich um eine Krankheit, welche in den betroffenen Ländern eine ähnlich hohe Prävalenz aufweist, wie bei uns z.B. die Zöliakie. Daher ist es wichtig, auch im klinischen Alltag differentialdiagnostisch das FMF mit einzubeziehen. Zwei Drittel der Patienten erkranken bis zum 10. Lebensjahr, 90% bis zum 20. Lebensjahr. Das immer anzutreffende Symptom ist Fieber bis über 39 0C, welches nach wenigen Tagen wieder zurückgeht. Diese Fieberschübe kehren in nicht vorhersagbaren Abständen wieder. Vergesellschaftet ist der Fieberschub fakultativ mit verschiedenen Begleitsymptomen wie Bauchschmerz, Gelenkschmerz, Pleuritis und selten auch Perikarditis. Die immer wiederkehrenden starken Bauchschmerzen mit Peritonitis führen dazu, dass die Kinder häufig laparotomiert und appendektomiert werden. Die Arthritis tritt meist als Monoarthritis von Knie, Sprunggelenk, Hüftgelenk oder Schulter auf. In seltenen Fällen ist auch eine Chronifizierung der Beschwerden beschrieben, was zur Arthrose bis hin zur Notwendigkeit des künstlichen Gelenkersatzes führen kann. Vital bedrohlich wird das FMF jedoch durch die Ausbildung einer Niereninsuffizienz bei Amyloidose. Diese tritt ohne Therapie in ca. 50% der Fälle nach 2 bis 7 Jahren auf. In der Literatur zum FMF sind Beschreibungen des Krankheitsbildes nur aus den typischen Regionen und insbesondere aus Israel zu finden. Eine Übersicht über die Ausprägung des FMF in Deutschland findet sich nicht. In der vorliegenden Arbeit wird aktuell nachgefragt, wie viele Kinder mit FMF bei den Kinderärzten in Hessen und Rheinland-Pfalz in Behandlung sind und wie sich das klinische Erscheinungsbild und die Therapie der Erkrankung darstellt. In zwei Befragungen wurden die im Berufsverband der Kinderärzte zusammengeschlossenen Kinderärzte befragt. Ca. 53% (389) der angeschriebenen Kinderärzte antworteten auf die Umfrage. Es wurde über 28 Kinder berichtet, welche wegen des FMF in Behandlung stehen. Die Appendicitis wurde als Fehldiagnose am häufigsten genannt, dies entspricht den Angaben aus der Literatur, auch wurde in nachvollziehbarer Zahl eine familiäre Belastung angegeben. Entsprechend dem Bevölkerungsanteil im Befragungsgebiet kam der überwiegende Teil (57%) aus der Türkei. Der Ausprägungsgrad der Krankheit variiert jedoch deutlich zu den in der Literatur gemachten Angaben. Die begleitenden Symptome treten insgesamt seltener auf, als wie in der Literatur beschrieben. Hierbei muss jedoch berücksichtigt werden, dass die Angaben in der Literatur sich eventuell auf nicht mit Colchicin therapierte Fa"lle beziehen, während fast alle von uns erfassten Kinder rasch mit Colchicin behandelt wurden. Besonders erfreulich ist die Tatsache, dass keines der gefundenen Kinder unter einer Niereninsuffizenz leidet.
Die zunehmend breitere Verwendung der Hydroxyethylstärke in immer höheren Dosierungen stellt die Frage nach ihrem Abbau und der Speicherung im Körper. Dazu wurde die Leber, als ein Organ mit bekannter Speicherung von Hydroxyethylstärke und als möglicher Abbauort, mit HES 200/0,5 künstlich perfundiert. Als Modell wurde die Wistar-Ratte gewählt, und als Kolloide zum Vergleich diente eine HES 450/0,7 und eine Gelatinelösung. Zur Differenzierung des Abbaus durch die Leber und des Plasmas wurde eine Reihe mit gewaschenen Erythrozyten als Sauerstoffträger, und ein Leerversuch ohne Leber durchgeführt. Durch die Leberperfusionen konnte gezeigt werden, dass ein Abbau in der Leber nur sehr langsam stattfindet. Weiterhin liess sich nur ein eingeschränkter Abbau der Hydroxyethylstärke mit mittlerer Substitution durch die a-Amylase zeigen, während er sich bei der hochsubstituierten HES überhaupt nicht nachweisen liess. Der Abbau der Hydroxyethylstärke ist nach anfänglich schneller Spaltung durch die a-Amylase und Ausscheidung durch die Niere anschliessend nur noch sehr langsam. Da in der Leber sowohl Hepatozyten als auch Zellen des RES vorhanden sind, scheint diese langsame Elimination auch für den Patienten zu gelten, nachdem alle nierengängigen Moleküle im Urin ausgeschieden wurden. Während diese langsame Elimination die mittelsubstituierte HES nur zum kleinen Teil betrifft, dürfte jedoch der grösste Teil der hochsubstituierten HES auf diese Art abgebaut werden. Dennoch ist wohl nur der Anteil der persistierenden Fraktion unterschiedlich, aber sowohl bei HES 200/0,5 als auch bei HES 450/0,7 scheint die persistierende Fraktion nicht nur ähnlich eliminiert zu werden sondern auch chemisch gleich zu sein. Sowohl hoch- als auch mittelsubstituierte HES können bei häufiger Applikation kumulieren. Ein Kolloid mit ähnlich positiven Eigenschaften, aber ohne persistierende Fraktion wäre für die Daueranwendung der Hydroxyethylstärke vorzuziehen.
Zur Beantwortung der Frage nach dem Auftreten einer Narbenhernie nach medianerLaparotomie bei elektiver colorektaler Chirurgie wurden 482 Patienten befragt. Diese Patienten wurden im Zeitraum von Anfang 1985 bis Anfang 1994 in derChirurgischen Klinik I der Städtischen Kliniken Offenbach mit dieser Technik operiert.423 Patienten konnten mittels eines Fragebogens nachuntersucht werden. Bei der Auswertung dieser Fragebögen zeigte sich, dass es bei 10,17% der Patienten zu einerNarbenhernie kam. 86% dieser Hernien traten innerhalb der ersten zwei postoperativen Jahre auf.Zur Frage, welchen Einfluss die bekannten Risikofaktoren auf die Häufigkeit des Auftretens einer Narbenhernie hatten, wurden folgende Faktoren untersucht: -männliches Geschlecht -frühere Laparotomie -Adipositas -Hypertonie -Diabetes mellitus -chronische Atemwegserkrankungen -postoperative Beatmung -Wundheilungsstörungen -Alter -Nahtmaterial -Bluttransfusion -Anämie -Hypoproteinämie -postoperative Chemotherapie -Nahttechnik Die hier untersuchten Faktoren könnten Risikofaktoren für das Auftreten einerNarbenhernie sein. Es kam zu einem statistisch signifikant höheren Auftreten von Hernien (c2-Test bei der Irrtumswahrscheinlichkeit a=0,05) bei Patienten mitpostoperativer Chemotherapie und in der Gruppe der 51 bis 60 Jahre alten Patienten. Folgende Faktoren scheinen die wichtigsten zu sein: -postoperative Beatmung -postoperative Chemotherapie (signifikant) -Wundheilungsstörungen -Alter zwischen 51 und 60 Jahre (signifikant) -frühere Laparotomie -chronische Atemwegserkrankungen -Einzelknopfnaht -Adipositas -Polyglykolsäure (Dexon(R)) als Nahtmaterial -arterielle Hypertonie -männliches Geschlecht Die übrigen untersuchten Faktoren zeigen ein nur gering höheres Auftreten oder sogar ein niedrigeres Auftreten von Hernien. Dies ist zum Teil auf die geringe Anzahl derPatienten in diesen Gruppen zurückzuführen. Beim Vergleich der aseptischen mit den kontaminierten Eingriffen kommt es zueinem signifikant höherem Auftreten von Narbenhernien in der Gruppe der aseptisch Operierten. Bei dieser Gruppe erfolgte im Gegensatz zur Gruppe mit denkontaminierten Eingriffen der Bauchdeckenverschluss mit nichtresorbierbarem Nahtmaterial (Prolene(R)).Man kann zusammenfassend sagen, dass ein erhöhtes Auftreten von Hernien bei Patienten zu erwarten ist, bei denen es zu einer Beeinträchtigung der Wundheilungoder zu einer Erhöhung des intraabdominellen Druckes kommt. Weiteres Augenmerk ist auf das verwendete Nahtmaterial sowie die Nahttechnik zu richten. EineVerwendung von Polyglykonat in fortlaufender Nahttechnik hat gemäss dieser Untersuchung ein geringeres Auftreten von Narbenhernien zur Folge.Eine Untersuchung, die die Gründe des signifikant höheren Auftretens von Hernien bei Patienten mit Arteriopathien betrachtet, scheint mit dieser speziellen Fragestellungsinnvoll zu sein.
Die multiple Sklerose mit ihren 3 klinischen Verlaufssubformen schubförmig, sekundär chronisch-progredient und primär chronisch-progredient weist sowohl im klinischen Symptomenbild als auch in der Verlaufsdynamik eine ausgesprochene Heterogenität auf. Als prognostisch ungünstig gelten in erster Linie der primär oder sekundär chronisch-progrediente Krankheitsverlauf, ein höheres Manifestationalter, eine initiale cerebelläre und/oder pyramidale Symptomatik und ein in der frühen Phase sich rasch kumulierendes funktionelles Defizit. Andere mögliche Einflussgrössen, insbesondere genetische Faktoren, Liquorparameter und primäre Behandlungsstrategien, sind diesbezüglich umstritten oder weitgehend negativ geblieben. Eine sowohl im Hinblick auf die Krankheitsdefinition im Einzelfall als auch in prognostischer Hinsicht, in absehbarer Zeit vielleicht sogar für die Therapie, relevante Frage ist die des Auftretens einer zweiten neurologischen Krankheitsepisode (Schub, Attacke) nach einer zunächst isoliert aufgetretenen Episode einer entzündlichen neurologischen Erkrankung, die von der Art der Symptomatik und nach den technisch-apparativen wie laborbezogenen Zusatzbefunden als Erstschub einer multiplen Sklerose aufgefasst werden könnte. Die hierzu bislang vorliegenden Untersuchungen hatten in erster Linie die isolierte Optikusneuritis und monosymptomatische ZNS-Syndrome wie Querschnittsmyelitis, Episoden mit rein sensiblen Störungen und solche mit ausschliesslicher Hirnstammsymptomatik zum Gegenstand. Bevölkerungsbezogene Daten wurden dabei jedoch nur für die Optikusneuritis vorgelegt, zudem war bei dieser die Wertigkeit der paraklinischen Zusatzbefunde nur anhand klinischer Serien untersucht worden. In der vorliegenden eigenen Studie wurde die spezielle Frage der Fortentwicklung von einer möglichen bzw. fraglichen multiple Sklerose in eine wahrscheinliche oder sichere MS in Form entweder eines zweiten Krankheitsschubes oder des Übergangs in einen sekundär chronisch-progredienten Verlauf anhand einer Subkohorte mit einer derartigen Ereigniskonstellation aus einem bevölkerungsbezogen ermittelten umfangreichen MS-Krankengut (N=950) untersucht. Der Studienansatz entspricht einer gemischten historisch und prospektiv angelegten Kohortenstudie. Als Einschlusskriterien galten die klinisch gestellte Verdachtsdiagnose der multiplen Sklerose im Sinne einer Einzelattacke und die Zugehörigkeit zu der die epidemiologische Studienpopulation bildenden Bevölkerung eines definierten Areales in Südhessen sowie die Durchführung der ersten stationären abklärenden Untersuchung in der das Studienzentrum darstellenden Neurologischen Klinik in Darmstadt. Die Daten zum weiteren Krankheitsverlauf der Kohortenmitglieder wurden teilweise im retrospektiven Ansatz der Einzelfalldokumentationen der epidemiologischen Feldstudie, ergänzt durch die Krankenblattarchive der Klinik, teilweise prospektiv (die nach den vorliegenden Aufzeichnungen ohne Zweitereignis gebliebenen und damit als zu zensierend anzusehenden Patienten betreffend) durch prospektives Nachfragen bei den weiterbehandelnden Ärzten und den Kohortenmitgliedern selbst in Erfahrung gebracht. Die Wahrscheinlichkeit des Ausfallsereignisses, d.h. des Auftretens einer weiteren Krankheitsepisode bzw. eines sekundär chronisch-progredienten Verlaufes wurde in Abhängigkeit von der Beobachtungszeit nach den Methoden der Überlebenszeitanalyse (Kaplan-Meier-Methode) ausgewertet, und der mögliche Einfluss von demographischen und klinischen Variablen wurde univariat mittels des Log-Rank-Testes und multivariat anhand des Cox'schen Proportional Hazard- Modells untersucht. Von den 136 hinsichtlich des weiteren Verlaufes auswertbaren Patienten der Kohorte trat während der Beobachtungsperiode von Januar 1982 bis August 1995 bei 71 (45 Frauen, 26 Männern) das Ausfallsereignis ein, wobei das Intervall zwischen 2 Monaten und 12 Jahren stark variierte. Für die Gesamtkohorte (N = 136) lag der Median bei 67 Monaten (Standardabweichung: 17 Monate), und nach 95 Monaten (7,9 Jahre) hatten 40 % der Kohortenmitglieder das Zweitereignis (noch) nicht entwickelt. Bei der univariaten Auswertung anhand des LogRank-Testes waren ein Erkrankungsalter unter 30 Jahren, eine andere Anfangssymptomatik als eine monosymptomatische Optikusneuritis, das Betroffensein von mehr als 2 Funktionssystemen bei der initialen Episode sowie eine abnorm erhöhte Liquorzellzahl, ein erhöhtes Liquoreiweiss und eine gesteigerte intrathekale IgG-Syntheserate bzw. wenigstens einer der genannten Liquorparameter sowie eine Latenzzeitverzögerung im VEP (mit oder ohne gleichzeitige Amplitudenreduktion) statistisch signifikant (P < 0,05) mit der Ereigniswahrscheinlichkeit assoziiert. Ein niedrigerer sozioökonomischer Status (manuelle Berufstätigkeit zu Krankheitsbeginn), das Vorhandensein motorischer bzw. pyramidaler Störungen bei der Ausgangsepisode, das Vorliegen multipler Herdbildungen in der Kernspintomographie und die Anwendung einer Steroidtherapie bei der initialen Krankheitsattacke waren diesbezüglich grenzwertig signifikant (P 0,05 < P < 0,1). Hingegen waren das Geschlecht, die Nationalität, die übrigen betroffenen Funktionssysteme beim Initialschub (darunter Hirnstammsymptome, eine rein sensible Anfangssymptomatik und zerebelläre Symptome), das Vorhandensein von 2 oder mehr im Vergleich zu einem Funktionssystem sowie die Befunde der somatosensorisch evozierten Potentiale (SEP) und der Computertomographie (CT) diesbezüglich ohne prädiktiven Wert. In der multivariaten Auswertung anhand des Cox'schen Regressionsmodells zeigten die Beteiligung von 3 oder mehr Funktionssystemen, eine über eine Optikusneuritis hinausgehende Anfangssymptomatik, Latenzzeitverlängerungen im VEP und eine gesteigerte intrathekale IgG-Syntheserate einen eigenständigen Beitrag zum Risiko des Progesses in Form eines Zweitereignisses und damit des Überganges in eine gesicherte multiple Sklerose, während die übrigen univariat mit dem Risiko verknüpften Variablen sich diesbezüglich als konfundiert erwiesen. Wenngleich die in den Ergebnissen zu Tage getretenen breiten Konfidenzintervalle eine Festlegung im Einzelfall enorm erschweren, lassen die Ergebnisse doch gewisse Trendaussagen sowohl im Hinblick auf die Planung wissenschaftlicher Studien als auch die Beratung des einzelnen Kranken zu. Insbesondere erscheint es gerechtfertigt, bei einer Kombination von mehreren der in der vorliegenden Studie herausgestellten positiven prädiktiven Einfluss- grössen von einer eher ungünstigen Prognose, die Entwicklung einer klinisch sicheren MS betreffend, auszugehen. Ob damit auch eine prognostische Voraussage über den in der eigenen Studie nicht untersuchten weiteren Langzeitverlauf möglich ist, kann in Anbetracht der stark kontroversen Datenlage in der Literatur, die initiale Schubhäufigkeit und die Zahl beteiligter Funktionssysteme betreffend, vorerst noch nicht beurteilt werden. Über den wissenschaftlich studientechnischen und den Beratungsaspekt hinausgehend ist von Interesse, ob die hier aufgezeigten prognostischen Prädiktoren auch als Richtschnur für therapeutische Entscheidungen dienen können. Da eine das hier untersuchte Zielereignis beeinflussende Therapie vorläufig nicht existiert, stellt sich diese Frage derzeit konkret noch nicht, entsprechende Untersuchungen sind aber beispielsweise für Interferon-beta 1a im Gange. In jedem Fall werden evtl. zukünftige derartige Entscheidungen, auch dann wenn sich krankheitsbezogene Prädiktoren wie die in der hiesigen Studie herausgestellten mit heranziehen lassen, angesichts potentieller Nebenwirkungen der jeweiligen Substanzen ein hohes Mass an ethischer Verantwortung erfordern.
Elektrische Kardioversion bei persistierendem Vorhofflimmern : ambulante versus stationäre Therapie
(1998)
Aufgrund ihrer bekannten Sicherheit und hohen Erfolgsrate ist die Elektrokardioversion im stationären Rahmen eine etablierte Therapie bei chronisch persistierendem Vorhofflimmern. In der vorliegenden Arbeit haben wir untersucht, ob auch die ambulante Durchführung einer Kardioversion mit gleicher Effektivität und Sicherheit möglich ist. Somit war Ziel der Arbeit, ambulante Kardioversionen zu untersuchen und der stationären Behandlung gegenüberzustellen. Während der anderthalbjährigen Laufzeit der prospektiven, nicht randomisierten Studie wurden 88 konsekutive, elektive Kardioversionen (an 65 Patienten) ambulant durchgeführt; insgesamt wurden während dieses Zeitraums 115 Prozeduren (bei 88 Patienten) erfaßt. Es wurde anschließend eine Nachbeobachtung über einen mittleren Zeitraum von 203 Tagen durchgeführt. Die Studie ergab, daß ambulante Kardioversionen zu 84% erfolgreich waren und Rezidive in 59% der Fälle innerhalb der Nachbeobachtung eintraten. Es zeigte sich bei den Patienten eine Abhängigkeit des Kardioversionserfolges vom Bestehen des Vorhofflimmerns. In der statistischen Analyse stellten sich keine klinischen Parameter als signifikant mit einem Rezidiv verbunden dar. Der abschließende Vergleich mit einer stationär therapierten Patientengruppe ergab keine signifikanten Unterschiede bezüglich Erfolg, Rezidiv und Sicherheit der Behandlung. Behandlungsbedürftige Akutkomplikationen traten bei 1,7% der ambulanten Kardioversionen auf. Schwere Komplikationen, insbesondere Embolien, wurden nicht beobachtet. Es traten keine schweren Blutungskomplikationen bei den chronisch antikoagulierten Patienten auf. Ambulante Kardioversionen sind der Therapie im stationären Rahmen gleichwertig und zudem deutlich kostengünstiger durchführen. Als Konsequenz dieser Untersuchung ist bei elektiven Eingriffen die ambulante Kardioversion des Vorhofflimmerns der stationären Behandlung vorzuziehen.
Bei einer Behandlung mit festsitzenden Apparaturen stehen für Zahnverschiebungen in mesio-distaler Richtung und zur Okklusionseinstellung seit 1993 als Alternative zu Gummiringen aus Latex Zugfedern aus der Nickel-Titan-Legierung Sentalloy zur Verfügung. Die vorliegende Untersuchung zeigt die materialtechnischen Besonderheiten der beiden Werkstoffe auf und beschreibt die Vor- und Nachteile in der klinischen Anwendung der Gummizüge und der Federn. Es wurden Gummizüge aus Latex von Ormco Dental (Glendora) in den Grössen 3/16, 1/4 und 5/16 inch in jeweils drei verschiedenen Stärken sowie pseudoelastische, Ni-Ti-Federn von GAC Int. Inc. (New York) untersucht. Dazu wurden in der Universalprüfmaschine Zwick 1421 die Kennlinien der verschiedenen Kraftelemente aufgezeichnet. Darüber hinaus wurde der Kraftabfall der Gummizüge durch isometrische Dehnung und durch Wechsellastversuche bestimmt sowie der Einfluss einer thermischen Alterung auf die Gummizüge untersucht. In einem Wechsellastversuch mit pseudoelastischen Federn wurde die Anzahl der Federbrüche innerhalb von 480.000 zyklischen Belastungen registriert. Die untersuchten Gummizüge zeigten eine für elastische Materialien typische Hysterese form der Kennlinie. Die Kennlinien pseudoelastischer Zugfedern wiesen eine Transformationshysterese mit einer über mehrere Millimeter annähernd konstanten Kraftabgabe auf. Bei Dehnung von Gummizügen derselben Grösse zeigten stärkere Gummizüge grössere Abweichungen in der Kraftentfaltung als schwächere Gummizüge. Insgesamt lagen solche Streubreiten zwischen 26% und 33%. Bei Dauerbelastung der Gummizüge blieb die Kraftabgabe der Gummizüge nach geringem initialen Abfall annähernd konstant. Es wurde nachgewiesen, dass die Kraftabgabe der Gummizüge bei isometrischer Dehnung innerhalb von 24 Stunden zwischen 8% und 15% fällt. Bei Wechsellastversuchen mit insgesamt 30.000 Lastwechseln verloren die Gummizüge etwa 10% - 15% ihrer Ursprungskraft. Thermische Alterung zeigte keinen Einfluss auf die Kraftentfaltung der Gummizüge. Grundsätzlich wiesen beide Materialien eine Temperaturabhängigkeit der Kennlinie auf. Während sich bei beiden Materialien die Hysteresefläche der Kennlinie bei höheren Temperaturen verschmälert, wird bei pseudoelastischen Federn zudem das Plateau der Kennlinie zu deutlich höheren Kraftwerten hin verschoben. Im Wechsellastversuch mit pseudoelastischen Federn kam es trotz gleichförmiger, axialer Belastung häufig zum spontanen Bruch der Federn. Die Kennlinie wies nach Wechselbelastung eine schmalere Hysteresefläche und ein zu geringeren Kraftwerten hin verschobenes Plateau der Kennlinie auf.
Die wirtschaftshistorische Arbeit beleuchtet und analysiert Aspekte aus der Unternehmens -,Regional- Technik- und Branchengeschichte und nutzt umfangreiches Quellen - und Zahlenmaterial aus Firmen- und Staatsarchiven und zeitgenössischer Literatur. Einige ältere Publikationen über die Eisenregion gibt es, die aber den Strukturwandel und die Gießereien. garnicht oder nur am Rande abhandeln. Wichtigste Quellen sind Bestände des Archivs Frank'sche Eisenwerke, Dillenburg und weitere durch das Hessische Wirtschaftsarchiv Darmstadt übernommene Firmenakten. Das im Lahn-Dill-Gebiet teilweise schon seit dem 15.-18. Jh. bestehende Eisengewerbe auf der Basis reicher Eisenerzvorkommen, größerer Waldungen für Holzkohle und von Wasserkraft, geriet ab dem 2. Drittel des 19. Jh. in Schwierigkeiten. Nach einer Aufschwungphase durch steigenden Eisenbedarf etwa von 1815-1835, mit Neugründungen und Kapazitätserweiterungen, entstand durch den Importdruck von erheblich billigerem englischen und belgischen Eisen ab 1840 eine ernsthafte Krise für die Eisenwerke. Englisches und belgisches Roheisen wurde schon seit Ende des 18. Jh. durchweg mit Steinkohlekoks kostengünstig erblasen. Hinzu kamen dort bessere Rahmenbedingungen durch gute Verkehrserschliessung, ausreichende Kapitalversorgung und grössere Betriebseinheiten u.a.m. Die Eisenindustrie des Lahn-Dill-Gebietes (Herzogtum Nassau, Teile des Großherzogtums Hessen-Darmstadt und die preußische Enklave Wetzlar) war dagegen bei Einrichtungen und den Standorten im Nachteil. Die überholte Erzeugung von Roheisen in Holzkohlehochöfen, schlechte Verkehrsanbindung, vielfach zu kleine Familienbetriebe mit schmaler Eigenkapitalbasis und unzureichende Nutzung von Fremdkapital waren weitere Defizite. In der Wirtschafts- und Eisenkrise der 1840er Jahre verschärfte sich die Lage. Vom Staat eingeforderte Schutzzölle brachten nur geringe Abhilfe. Erst das Nachlassen des Importdrucks ab Anfang der 1850er Jahre und eine bessere Wirtschaftslage verschafften den Werken bis zur Krise am Ende der 1850er Jahre eine gewisse Atempause. Diese wurde aber im Lahn-Dill-Gebiet nicht dazu genutzt, die Umstrukturierung auf Steinkohlehochöfen und besonders auf mehr Verarbeitung zu Eisenguß voranzutreiben. Wenn auch die Eisenunternehmer wußten, daß man sich umstellen mußte, verhielten sie sich noch lange abwartend und zögerten bei Neuinvestitionen, wobei auch die Abneigung der Aufnahme fremden Kapitals bei den Eisenfamilien eine Rolle spielte. Hervorzuheben ist, daß durch die weitgehende Privatisierung der Eisenhütten von 1800-1860, der Kampf von Unternehmern ums Überleben wirkungsvoller war, als es bei einer staatlichen Regie möglich gewesen wäre Versäumt wurde allerdings, durch einen großen Verbund fast aller Eisenwerke, wie von der Bank für Handel und Industrie, Darmstadt und der Mitteldeutschen Credit-Bank, Meiningen vorgeschlagen, eine rationellere Unternehmensgruppe zu schaffen. Kostenvorteile durch einzelne Zusammenschlüsse und Zukäufe wie bei Buderus, dem Hessisch-Nassauischen-Hüttenverein und den Burger Eisenwerken brachten Kostenreduzierungen wie auch "Teil"-Rationalisierungen, sowie technische "Teil" Modernisierungen Durch (trügerisches) Vertrauen auf Qualitätsvorteile des Holzkohleneisens und bei im Gegensatz zu anderen Regionen günstigerer Holzversorgung blieben die Unternehmen noch bis in die 1880/90er Jahre bei Holzkohle als Brennstoff. Außerdem wollte man wegen der eigenen ergiebigen Erzgruben auch noch nicht die Roheisenerzeugung zugunsten eines reinen Gießereibetriebes aufgeben. Nur Buderus führte ab den 1860/70er Jahren die Steinkohlenverhüttung ein, setzte aber zu stark auf Roheisenproduktion und vernachlässigte den Eisenguß. Das war wegen des Aufkommens des Flußstahls riskant und führte zu einer ernsten Krise des Hauses in den 1880/90er Jahren. Die anderen mittelständischen Betriebe ließen sich zur Steinkohlenverhüttung noch nicht "verleiten", was auch mit erheblichen Risiken verbunden gewesen wäre und warteten weiter ab, bedingt auch durch familiäre Strukturen der Firmen. So retteten sich über die Konjunkturschwankungen der 1870/80er Jahre, bis sie dann endgültig meist ganz auf Gießereibetrieb umstellten. Dabei kamen Ihnen Markt - und Produktkenntnisse in diesem schon länger betriebenen Fabrikationszweig zugute. Erst ab ca. 1890 nutzten sie voll die Möglichkeiten der Kupolofentechnik, durch 2. Schmelzung auswärts günstig gekauftes Roheisen für die Eisengußproduktion einzusetzen. Der Produktions-Schwerpunkt der meisten Werke auf der Fabrikation von Herden, Öfen, Poterie war aber kein Nachteil. Die Region war hierfür bekannt, hatte etwa 40-50% Marktanteil, auch durch verbesserte Öfen und es bestand steigender Bedarf. Dauerhaft erfolgreicher waren allerdings Firmen wie Buderus und die Michelbacher Hütte, die sich mit "neuen" Produkten wie Zentralheizungs - und Kanalisationsguß, Röhren, schwerem Maschinen- und Sanitärguß befaßten, unterstützt durch eigene Erfindungen und Investitionen in neue Produktionseinrichtungen. Wichtiger als Standortbedingungen waren durch fortschrittliche Gießereitechnik kostengünstig hergestellte und den Markterfordernissen angepaßte Produkte aufgrund konsequenter Strategien von Unternehmern aber auch leitenden Angestellten, wie Generaldirektor Kaiser bei Buderus. Von 1905 - 1912 stabilisierten sich besonders die Werke, die auf "modernere" Produkte setzten.
In der vorliegenden, randomisierten Doppelblindstudie wurde bei 48 Patienten mit gesicherter koronarer Herzerkrankung die Dosis-Wirkungs-Beziehung eines neuen, antianginös wirksamen Pharmakons mit dem Namen Trimetazidine (TMZ) in den Dosierungen 3 mg, 6 mg und 16 mg gegenüber Placebo untersucht. Zusätzlich sollte die Beeinflussung der Hämodynamik nach Gabe dieses Medikamenten untersucht werden. Frühere tierexperimentelle Untersuchungen (4,7,12,24,30,35,38,39) und klinische Untersuchungen an Patienten mit koronarer Herzkrankheit , die mit einer oralen oder intravenösen Gabe von Trimetazidine behandelt wurden, hatten eine antiischämische Wirksamkeit der Substanz ohne Beeinflussung hämodynamischer Parameter ergeben (7,11,26,30,34). Nach den bisher vorliegenden pharmakologischen Untersuchungen ist anzunehmen, dass die antiischämische Wirkung von Trimetazidine nicht über die Beeinflussung der Hämodynamik, sondern wahrscheinlich auf einer Stabilisierung der myokardialen ATP- Depots und der elektrischen Membranpotentiale während einer Ischämie beruht und somit TMZ einen direkt myokardprotektiven Effekt besitzt (11,13,14,24,35,41). In der vorliegenden Studie wurden während Perkutaner Transluminaler Koronarer Angioplastie (PTCA), 3, 6 oder 16 mg TMZ oder Placebo intrakoronar injiziert und in weiteren Dilatationen die Beeinflussung der PTCA-bedingten Ischämie durch TMZ untersucht. Zur Beurteilung der antianginösen Wirksamkeit von Trimetazidine wurden die ST-Strecken zum Ausgangszeitpunkt mit den maximalen ST-Strecken-Änderungen während der jeweiligen Okklusionen in den vier verschiedenen Therapiegruppen vergl ichen. Zusätzlich wurden die Ausbildungszeiten der maximalen ST-Strecken-Änderungen und deren Rückbildungszeiten in den vier Gruppen (Placebo, 3 mg, 6 mg und 16 mg TMZ) untersucht. Die Untersuchungen ergaben keine signifikanten Unterschiede zwischen den vier Gruppen sowohl vor, als auch nach der Gabe von TMZ bzw. von Placebo. Es wurde keine Beeinflussung der hämodynamischen Parameter unter Trimetazidine (systemischer Blutdruck, intrakoronarer Blutdruck und Herzfrequenz) beobachtet, was auf Grund einer früheren Studie auch erwartet wurde. Die subjektiv eingeschätzten pektanginösen Beschwerden blieben vor und nach der Gabe von TMZ / Placebo gleich. Die während der Untersuchung beobachteten Nebenwirkungen waren gering und nicht auf die Gabe vom TMZ zurückzuführen. Nach gewissenhafter Abwägung der Ergebnisse und dem Vergleich mit den Daten aus der Literatur scheinen weitere Untersuchungen mit vergleichbarem Studienau fbau an einem grösseren Patientenkollektiv und - um ein homogeneres Patientenko llektiv zu erhalten - bei Beschränkung der Dilatationen auf nur ein Gefäss, vorzug sweise den RIVA wünschenswert, um das Ausmass der antiischämischen Wirkung und die Dosis-Wirkungs-Effekte von TZM weiter zu erforschen.
In der vorliegenden Arbeit wurden 12 Biopsien von ALS Patienten qualitativ und quantitativ beurteilt. Nur ein Teil der Patienten wies klinisch Sensibilitätsstörungen auf, Patienten mit Erkrankungen, die bekanntermassen polyneuropathische Schädigungen verursachen können, wurden ausgeschlossen. Es zeigte sich, dass einige der Biopsien (9 von 12 Fällen) qualitative und quantitative Veränderungen aufwiesen, die sich als primär neuronale und/oder axonale Schädigungen interpretieren lassen. In 3 von 12 Fällen fand sich quantitativ ein Normalbefund, bei 2 von diesen 3 Fällen auch qualitativ. Die typischerweise bimodalen Faserdurchmesserhistogramme der myelinisierten Fasern waren nach links verschoben. Diese Verschiebung war am ersten Gipfel deutlicher ausgeprägt als am zweiten Gipfel. Die grössten Fasern fehlten oftmals. Auch die als insgesamt noch normal befundete 3 Biopsien von ALS Patienten hatten, den ersten Gipfel betreffend, Veränderungen, die in die gleiche Richtung gingen, sich jedoch statistisch nicht signifikant von den Kontrollen unterschieden. Die Verteilung der Axondurchmesser ist, wenn auch weniger ausgeprägt, ebenfalls nach links verschoben. Die Befunde, mit besonderer Berücksichtigung der auffallenden Veränderungen an den kleinen Fasern, sprechen für ein vermehrtes Vorkommen von Regeneraten und remyelinisierten Fasern, evtl. in Kombination mit axonaler Atrophie. Es ergeben sich im Vergleich mit den dazu veröffentlichten, z. T. untereinander divergierenden Daten von sechs Arbeitsgruppen einige Übereinstimmungen. Dadurch wird deutlich, dass es sich bei den Veränderungen am N. suralis bei ALS um einen Prozess mit axonaler Atrophie, konsekutiver Bildung von Regeneraten und sekundärer De- und Remyelinisierung handelt. Unterschiede zwischen den verschiedenen Studien bestehen in der Beurteilung des Anteils an Regeneraten und Remyelinisierungen an den kleinen Fasern und damit welchen Anteil axonale Veränderungen gegenüber der Neuronopathie an der Ätiologie der ALS haben. Die vorliegenden Ergebnisse betonen die axonale Komponente der Erkrankung. Eine Beteiligung des sensiblen N. suralis am pathologischen Prozess bei ALS konnte somit in den meisten Fällen (9 von 12 Fällen) nachgewiesen werden. Die pathologischen Veränderungen unterscheiden sich qualitativ nicht von den in autoptischen Studien gefundenen Veränderungen im motorischen System; sie sind jedoch viel milder ausgeprägt. Es kann somit davon ausgegangen werden, dass die Veränderungen des N. suralis bei ALS frühere pathomorphologische Krankheitsstadien repräsentiere, als die im motorischen System gefundenen. Da der N. suralis zu diagnostischen Zwecken entnommen wird, sind diese Ergebnisse auch von diagnostischer und differentialdiagnostischer Relevanz, insbesondere in der Abgrenzung zu den Polyneuropathien.
Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen
(1997)
Das Ziel der vorliegenden Arbeit war die Entwicklung einer komfortablen Beschreibung verteilter Anwendungen, die kontinuierliche Medien integrieren. Die Klarheit des Ansatzes ergibt sich aus der Beschränkung auf die anwenderrelevanten Funktionalitäten. Weitere Gebiete, die systembezogen sind, wurden nur soweit wie nötig behandelt. Die Aufgaben anderer Bereiche, wie des Betriebssystems und des Managementsystems sowie der Kommunikationsdienste, konnten nur gestreift werden, indem die anwendungsabhängigen Anforderungen spezifiziert wurden. Durch deren Extraktion und die Zuordnung der Anforderungen an die einzelnen Bereiche, ergibt sich eine klarere Sicht auf Betriebssystem, Management und Kommunikationsdienste und deren notwendige Weiterentwicklung. Das entwickelte Funktionenmodell beschreibt zusammenhängend alle mit kontinuierlichen Medien verbundenen Arbeiten. In der vorliegenden Arbeit wurde gezeigt, wie aus den Funktionen auf kontinuierlichen Medien durch die Spezifikation geeigneter Schnittstellen Bausteine zur Integration der Medien in verteilte Anwendungen erstellt werden. Die Beschrei bung der Bausteine erfolgt durch diese Schnittstellen; es sind Steuer-, Daten- und Managementschnittstellen. Die Herauslösung der gesonderten Beschreibung der Multimedia-Datenflußstruktur schafft einerseits die Grundlage für eine Teilklassifikation der Anwendungen nach Medien-Gesichtspunkten. Andererseits kann die Erstellung einer Anwendung aus einer bestimmten Anwendungsklasse, wie zum Beispiel ein einfaches Wiedergabesystem, durch die gesonderte Beschreibung der Multimedia-Datenflußstruktur schneller in der Bausteinstruktur realisiert werden. Das Funktionenmodell wird auch in [Fritzsche96] beschrieben. Das in dieser Arbeit konzipierte Bausteinmodell gewährleistet eine integrierte Beschreibung von Geräten, Werkzeugen und Anwendungen kontinuierlicher Medien. Die verwendete Beschreibungstechnik erlaubt dabei nicht nur eine übersichtliche Darstellung sondern bietet auch hierarchische Strukturierungen an. Das Zusammenspiel der Bausteine erfordert zu sätzliche Komponenten zur Steuerung und Abstimmung der einzelnen Funktionen, die in dieser Arbeit neu eingeführt werden. Es lassen sich sowohl zentralistische als auch verteilte Steuerungen realisieren. Mit einer entsprechenden Schnittstelle versehen kann eine Steuerkomponente eine ganze Gruppe von Bausteinen dem Benutzer als Einheit zur Verfügung stellen. Somit lassen sich auch verschiedene Medien und/oder mehrere Funktionen gemeinsam mit einer Steuerkomponente zu einem Baustein zusammenfassen. Diese zusammenge setzten Bausteine bieten nun echte Multifunktionalität und Multimedialität. Durch die Komponenten- und Anwendungsmodellierung nach [Zimm93] wird darüber hinaus eine flexible, auch dynamisch änderbare Anwendungsstruktur vom Anwendungs-Management ermöglicht. Das Bausteinmodell wird auch in [Fritzsche96] behandelt. Bisherigen Ansätzen für Multimedia-Komponenten fehlt die allgemeine Interoperabilität der Komponenten. Diese kann nur durch eine umfassende, formale Spezifikation der Komponenten-Schnittstellen, insbesondere aber von Steuerschnittstellen, erfolgen. Zur Spezifikation der Schnittstellen ist die Integration der kontinuierlichen oder zeitabhängigen Medien als abstrakte Datentypen unabdingbar. Auf diese Art werden aus den Komponenten Bausteine. Im vorliegenden Ansatz wurden erstmalig Steuerschnittstellen für Multimedia-Komponenten spezifiziert und als Hierarchie dargestellt. Der neue Ansatz erlaubt es daher, multimediale Systeme nach einem Baukastensystem zu erstellen, indem Bausteine durch Bindung untereinander zu einer Anwendung zusammengesetzt werden. Nach der Verbindungsstruktur der multimedialen Anwendung können verschiedene Anwendungstypen unterschieden werden. Die Definition der Komponentenschnittstellen bezieht sich auf ein abstraktes Datenmodell für kontinuierliche Medien. Das Datenmodell ist eine eigenständige Weiterentwicklung der Ansätze von [Herrtw91] und [Gibbs94] und kann auch zur Realisierung der Komponenten verwendet werden. Multimediadaten wurden zunächst auf zwei Ebenen als Sequenz und Sequenzelemente modelliert. Daraus lassen sich bereits einige Funktionen auf den Daten ableiten, die von den Bausteinen realisiert werden müssen. Kennzeichnend für die Sequenzelemente ist, daß sie die Zeitparameter Zeitpunkt und Dauer besitzen und damit eine explizite Integration der Zeit in das Datenmodell realisieren. Aus diesen Parametern der Elemente können auch für die Sequenz die Parameter Zeitpunkt und Dauer abgeleitet werden. Somit könnte eine Sequenz selbst wieder Element einer Sequenz werden. Da diese Sequenzen von Sequenzen aber zum Teil schwer zu handhaben sind und zum Aufbau von sehr komplexen Verschachtelungen verleiten, wird in dieser Arbeit eine andere Erweiterung der Datenhierarchie, eine Liste, vorgestellt. Diese Erweiterung führt nur eine weitere Hierarchieebene oder Granularitätsstufe ein, ist aber durch die vorgegebenen Funktionen gleichmächtig wie die Verschachtelung der Sequenzen, im Operationsablauf aber leichter nachzuvollziehen. Die Liste repräsentiert die gröbste Granularitätsstufe. Diese ist mit der Titelfolge einer Schallplatte oder einer CD vergleichbar. Die einzelnen Teile haben zueinander nur eine lose Ordnung. In der ersten Verfeinerung der Granularität wird in jedem einzelnen Listenelement eine strenge zeitliche Ordnung gefordert; ein Listenelement ist eine Sequenz. In der zweiten Stufe der Verfeinerung, der Unterteilung der Sequenzen, treten die bereits bekannten Se quenzelemente auf. Die Daten werden im Ticker-Schrittgeber-Modell interpretiert. Dieses Modell erhält zwei Zeitebenen, den Ticker als Bezugssystem der Funktionen untereinander und den Schrittgeber als Steuerung der einzelnen Funktionen. Ein zweistufiges Uhrenmodell mir festgesetzten Operationen und Uhrenbeziehungen wird in dieser Arbeit neu eingeführt. Die Beziehung zwischen Schrittgeber und Ticker ist, daß ein Schritt nach einer bestimmten Anzahl von Ticks erfolgt. Der Startwert des Tickers kann frei gewählt werden, ebenso der Startwert des Schrittgebers. Für den Schrittgeber bestimmt sein Start-Tick, wann er beginnt fortzuschreiten. Ein Schrittgeber ist mit genau einer Sequenz verbunden, deren Start-Schritt beschreibt, bei welchem Schrittwert das erste Sequenzelement gültig wird. Die Start-Zeitpunkte der Elemente und ihre Dauern werden in Schritten gemessen. Das Datenmodell für Multimedia wurde in [Fritzsche95] veröffentlicht. Implementierungen Als Grundlage für die Entwicklung der Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen wurden die Funktionen auf den Medien herangezogen. Diese sind in ihren einfachsten Formen die Grundfunktionen Perzeption, Präsentation und Speicherung der Medien, wobei die Speicherung in die Funktionen Schreiben in den Speicher und Lesen aus dem Speicher geteilt wird. Die durch die Perzeption festgelegten, oder künstlich erzeugten Mediendaten können zwischen den einzelnen Funktionen übertragen werden. Eine Bearbeitung der Daten ist beim Austausch zwischen den Funktionen möglich. Die Veränderung der Daten und ihr Bezug zu den Grundfunktionen wird durch die Verarbeitungsfunktionen der Typen f 1 bis f 5 beschrieben. Die Funktionen werden durch Operationen gesteuert, die aus dem Datenmodell abgeleitet werden. Insbesondere wird so auch die explizite Veränderung der Zeitparameter möglich. Somit bietet das Datenmodell eine geeignete Grundlage für jede Art der Verarbeitung kontinuierlicher Medien. Das entwickelte Modell unterstützt die Anwendungserstellung durch objektorientierte Ansätze auf den Ebenen der Konzeption, der Anwendungsspezifikation und der Komponentenentwicklung. Konzeptionell bietet das Funktionenmodell die schnelle und übersichtliche Darstellung der Anwendung. Die aus dem Funktionenmodell ableitbare Anwendungsspezifikation unterstützt die weitere Entwicklung durch Anwendungs- und Komponentenschablonen, sowie durch die vorgefertigte und erweiterbare Hierarchie der Schnittstellen und durch die Bibliotheken für Standardbausteine. Die Verwendung dieser Elemente der Anwendungsspezifikation läßt sich teilweise automatisieren. Das Ergebnis der Anwendungsspezifikation ist eine Menge von Komponenten, die alle vollständig spezifiziert sind. Diese Komponenten sind die funktionsorientierten Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen. Im ersten Schritt wurde das vorgestellte Datenmodell mit seinen Operationen in einer objektorientierten Programmiersprache (C [Lipp91]) implementiert [Braun92]. Darauf aufbauend wurden verschiedene Anwendungsfunktionen und Normalisierungsoperationen entwickelt und für den Bereich Audio realisiert [Bast93]. Die von den Funktionen auf kontinuierlichen Medien abgeleiteten Bausteine werden, wie in der vorliegenden Arbeit ausführlich dargestellt, als Komponenten verteilter Anwendungen realisiert. Aus den verschiedenen Realisierungsebenen sollen hier zwei Beispiele hervorgehoben werden. Zunächst wird auf die Komponentenrealisierung eingegangen; danach folgt die Realisierung von Tickern und enger Kopplung. Diese beiden Punkte stellen zentrale Aufgaben des Ansatzes dar. Realisierung von Komponenten Die Realisierung der Komponenten gliedert sich in zwei Abschnitte. Der erste Abschnitt ist die Zerlegung einer Komponente in Standardobjekte nach [Zimm93]. Die Standardobjekte entstammen Kommunikationsklassen, Stub- und Dispatcherklassen, Anwendungsklassen und Kooperationsprotokollklassen. Die Objekte der Anwendungsklassen realisieren die Anwendungsfunktionalität der Komponente. Das Ausprogrammieren dieser Objekte stellt den zweiten Abschnitt der Komponentenrealisierung dar. Dazu liefert das entwickelte Datenmodell die Programmierunterstützung. Zur Abbildung der Spezifikationskonstrukte der Komponenten auf Implementierungskonstrukte wird in [Zimm93] eine Methode vorgestellt, die die unterschiedlichen Konstrukte für Schnittstellen, Kommunikationskontexte und Komponenten auf Klassen und Objekte abbildet. So entsteht eine Klassenhierarchie von C Klassen [Lipp91] für kommunikations-, anwendung-s und managementorientierte Objekte. Weiterhin wird in [Zimm93] ein Verfahren vorgestellt, durch das in Abhängigkeit von den Eigenschaften einer Komponente parallel ablaufende Datenflüsse in ein System von leichtgewichtigen Prozessen (Threads) transformiert werden können. Als Resultat gewinnt man eine modulare Softwarearchitektur der Komponente, die sich aus interagierenden Objekten und zugehörigen Threads zusammen setzt. In [Zimm93] werden folgende Objektklassen unterschieden: . Kommunikationsklassen . Stub- und Dispatcherklassen . Anwendungsklassen . Kooperationsprotokollklassen. Eine elementare Objektarchitektur aus diesen Klassen ist in Abbildung 54 dargestellt. Es gibt jeweils eine Realisierung für eine Supplier-Komponente und eine Consumer- Komponente. Die Anwendungsobjekte können bezüglich ihrer Funktionalität in initiierende und akzeptierende Objekte eingeteilt werden. Im Falle unidirektionaler Schnittstellen sind die Anwendungsobjekte auf der Konsumentenseite (z.B. Benutzerkomponente) für die Initiierung von Methoden an Schnittstellenobjekten verantwortlich. Beispielsweise ist ein Anwendungsobjekt innerhalb der Benutzerkomponente für die Initiierung der Steueroperationen verantwortlich. Im Falle von interaktiven Komponenten [Zimm93] erfolgt dazu ein Benutzerdialog mit einem interaktiven Benutzer. Also realisiert innerhalb der Benutzerkomponente das Anwendungsobjekt einen solchen Benutzerdialog. Anwendungsobjekte auf der Konsumentenseite stellen somit typischerweise keine eigenen Methoden bereit, sondern bestehen lediglich aus einem Konstruktor. Auf der akzeptierenden Seite, den Anbieter (Supplier), realisiert ein Anwendungsobjekt die Operationen an einer Schnittstelle. Dazu wird eine Methode accept benötigt, falls ein verbindungsorientierter Kommunikationskontext zugrunde liegt. Diese Methode dient der Behandlung eingehender Verbindungswünsche. In [Alireza94] werden verschiedene Komponentenrealisierungen ausführlich vorgestellt. Die Realisierung der Ticker und Schrittgeber stellt die Einbettung der zeitbezogenen Komponenten in ihre (Betriebssystem) Umgebung dar. Ähnlich, wie eine Komponente über den Socketmechanismus Zugang zum Kommunikationssystem erhält, erhält eine zeitbezogene Komponente über den Ticker-Schrittgeber-Mechanismus Zugang zum Zeitbezugssystem. Denn die Schrittgeber beziehen sich auf Ticker, Ticker aber auf die Systemzeit. Da auch die Systemzeit als Takt zur Verfügung gestellt wird, können Ticker und Schrittgeber wegen ihrer ähnlichen Funktionalitäten aus einer gemeinsamen Zeitgeberklasse abgeleitet werden. Im Anhang C ist die Deklaration dieser gemeinsamen Klasse angegeben. In einer Anwendung beziehen sich die Schrittgeber verschiedener Komponenten auf einen gemeinsamen Ticker. Dieser Ticker liegt in der Systemumgebung der den Komponenten gemeinsamen interaktiven Benutzerkomponente. Die interaktive Benutzerkomponente verteilt die Ticks über die Steuerschnittstellen an die Komponenten und realisiert so die enge Kopplung der Komponenten. Bei einer Tickrate von 600 Hz ist es nur innerhalb eines Systems sinnvoll jeden Tick als Ereignis zu verteilen. Anstatt nun zu jedem Tick ein Ereignis zu verteilen werden bei der Tickverteilung Tickwerte mit fester Rate verteilt, wobei diese Rate in die Größenordnung der Schritte fällt. Um die Übertragungsraten gemäß den Anforderungen an der Steuerschnittstelle klein zu halten, wird zu jedem Schritt nur ein Teil (1 Byte) des Tickwertes übertragen. Begonnen wird mit der Übertragung des höchstwertigen Bytes, so daß im letzten Schritt einer Tickerübertragung mit dem letzten Byte der genaue aktuelle Tickwert übertragen wird. Ähnliche Verfahren werden bereits bei anderen Synchronisations verfahren verwendet. Eine genaue Beschreibung sowie die Kodierung für die verschachtelte Übertragung von Tickwerten und SchnittstellenAufrufen wird in [Hesme93] vorgestellt. Weitere Entwicklung Zur Realisierung verteilter multimedialer Anwendungen, muß man die einzelnen verteilten Komponenten bestimmen und ihre Funktion beschreiben. Die Komponenten tauschen unter einander Steuerungsinformationen und Multimediadaten aus. Diese Daten und das beim Austausch verwendete Protokoll sollten allgemein standardisiert sein, um den Zusammen schluß heterogener Systeme zu ermöglichen. In der vorliegenden Arbeit wurde gezeigt, wie sowohl die Daten als auch das Zusammenspiel der Komponenten festgelegt werden können. Obwohl alle Geräteklassen und Geräte funktionen sowie verschiedene Werkzeuge entwickelt wurden, und das vorgestellte Modell die gesamte Entwicklung verteilter multimedialer Anwendungen unterstützt, ist dieses große Gebiet noch lange nicht erschöpfend behandelt. Eine Erweiterung der Managementschnittstellen und die Realisierung von komplexen Werkzeugen sind die vordringlichsten Aufgaben. Damit entsteht ein mächtiges Entwicklungswerkzeug für Multimediaanwendungen. Funktionsorientierte Bausteine zur Integration kontinuierlicher Medien in verteilte Anwendungen Eine weitere Aufgabe ist die genauere Untersuchung der Nebenbedingungen, die zur Unterscheidung der Funktionen der Typen f 1 bis f 5 führten. Aus diesen Untersuchungen sowie aus den Ergebnissen der Ticker- und Schrittgeber-Realisierung lassen sich dann genauer spezifizierte Anforderungen an die Betriebs- oder Kommunikations-Systeme ableiten.
Ziel der Arbeit war es ein Cochlea-Implantat zur mehrkanaligen chronischen Elektrostimulation des Nervus cochlearis der kongenital gehörlosen weißen Katze zu entwickeln, um damit einen Beitrag zur Grundlagenforschung der zentralen Hörbahnreifung und der hierbei wichtigen kritischen Entwicklungsperioden zu leisten. Dazu wird das letztendlich mit fünf getrennt ansteuerbaren Elektrodenflächen versehene Implantat in einer Operation in die Scala tympani der meist 12 - 15 Wochen alten, gehörlosen Katzen eingesetzt und diese im Anschluß daran für etwa sechs bis acht Monate chronischen neurophysiologischen Experimenten unterzogen. Die hier geleistete Arbeit wurde nötig, da die am Markt erhältlichen, kommerziellen Humanelektroden aufgrund der für Tierversuche mangelnden mechanischen Belastbarkeit ungeeignet sind. Eine für die University of Melbourne aus der NUCLEUS®-22-Elektrode weiterentwickelte Feline-Version (Shepherd, 1993; Xu et al. 1997) der australischen Firma NUCLEUS Ltd. ist kommerziell nicht verfügbar. Im Rahmen der in den folgenden Kapiteln dargelegten theoretischen Überlegungen und Entwicklungsstufen wurde letztendlich in einem Kompromiß zwischen idealem Design und der technischen Realisierbarkeit ein (5 1)- Implantat mit den geforderten elektrischen und mechanischen Eigenschaften entwickelt (siehe Abb. 1). Dieses besteht aus einer Elektrodenspitze in Form einer Goldkugel und vier separaten, durch Silikonringe voneinander getrennten Golddrahtringen. Die Kontaktierung dieser Elektrodenflächen erfolgt rein mechanisch mittels teflonisolierter 7-fach Edelstahllitzen, die bis zur erforderlichen Steckverbindung zum Signalprozessor in einem Medical-Grade-Silikonschlauch geführt werden. Die Zuleitung der indifferenten Elektrode, die in ihrem Aufbau der Implantatspitze gleicht und aus einer etwas größeren Goldkugel besteht, wird ab etwa 3/5 der Länge in einem parallel gelegenen Schlauch geführt. Dadurch kommt sie nach erfolgter Implantation im Nackenbereich der Katze zu liegen. Beide Schläuche verlaufen subcutan bis in die Schulterblattregion und werden hier durch eine transcutane Öffnung zu dem in einer Art Pullover am Rücken getragenen Signalprozessor geführt. Alle Entwicklungsstufen wurden jeweils elektrisch und mechanisch in vitro getestet und zum Teil anschließend implantiert. Dabei kam es bei den ersten implantierten Versionen aufgrund mangelnder mechanischer Dauerbelastbarkeit immer wieder zu Beeinträchtigungen der chronischen neurophysiologischen Experimente. Diese Probleme sind mit der Version "5 1-Edelstahl an Gold geknotet" behoben worden, und der bis jetzt mit dieser Technik einzige Ausfall einer Elektrodenfläche beruhte auf einem Litzenbruch der betreffenden Edelstahlzuleitung. Eine Erweiterung auf sechs Elektrodenflächen im intracochleären Bereich ist möglich, weitergehende Entwicklungswünsche bedürften dann jedoch der Verwendung neuer Materialien und Techniken.
Hämosiderinbeladene Alveolarmakrophagen in der bronchoalveolären Lavage pädiatrischer Patienten
(1998)
Idiopathische pulmonale Hämosiderose (IPH) ist eine seltene Erkrankung unklarer Ätiologie, die hauptsächlich Kinder und Jugendliche betrifft. Pulmonale Hämorrhagie ist in Assoziation mit diversen respiratorischen und systemischen Krankheiten beschrieben (Systemischer Lupus Erythematodes, Goodpasture Syndrom). Eine frühe Diagnose der pulmonalen Hämorrhagie ist von großer Bedeutung, da die in Frage kommenden Erkrankungen progrediente und letale Verläufe nehmen können. Die bronchoalveoläre Lavage (BAL) ist die Methode der Wahl, um hämosiderinbeladene Makrophagen nachzuweisen und mögliche Ursachen zu diagnostizieren (Infektionen, maligne Prozesse). Studie: Es wurden 64 bronchoalveoläre Lavagen hinsichtlich des Hämosideringehaltes ausgewertet und bezüglich einer möglichen differentialdiagnostischen Bedeutung in der Pädiatrie untersucht. Da in unserer Kontrollgruppe wesentlich weniger Hämosiderin nachweisbar war als bisher beschrieben, wurde ein neuer Hämosiderin-Score für pädiatrische Patienten erstellt. Ergebnisse: Weder bei Patienten mit pulmonaler Symptomatik auf dem Boden eines gastroösophagealen Refluxes, noch bei Patienten mit chronischen Lungenkrankheiten anderer Genese wurden erhöhte Hämosiderin-Werte festgestellt. Schlußfolgerung: Da bei Kindern erhöhte Hämosiderin-Score in Assoziation mit chronischen pulmonalen Erkrankungen nicht gefunden wurden, sind auch nur leicht erhöhte Hämosiderin- Scores als möglicher Hinweis auf eine ernste Systemerkrankung anzusehen. Fallbeispiel: Über ein Kleinkind mit idiopathischer pulmonaler Hämosiderose bei einer gastroösophagealen Refluxerkrankung wird berichtet.
Die AICD-Implantation ist heute Therapie der Wahl zur Behandlung von Tachyarrhythmien bei Hoch-Risiko- Patienten nach überlebtem Herztod (1,2). Bezüglich einer differenzierten AICD-Therapie ist es hierbei von großem Interesse, ob die zur Implantation führende Rhythmusstörung, also Kammerflimmern oder ventrikuläre Tachykardie, Aussagen über Art und Häufigkeit von Rezidiven zulassen. Hinsichtlich der Inzidenz von therapiebedürftigen Tachyarrhythmien zeigt sich in unserer Patientenpopulation kein Unterschied zwischen Patienten mit Kammerflimmern und solchen mit einer ventrikulären Tachykardie als primärem Rhythmusereignis. Bei der Unterscheidung dieser Patientenpopulation muß in Betracht gezogen werden, daß dem Kammerflimmern zwar oft eine (nicht-dokumentierte) degenerierte ventrikuläre Tachykardie vorausgeht, monomorphe ventrikuläre Tachykardien und Kammerflimmern aber ansonsten unterschiedliche elektrophysiologische Charakteristiken aufweisen. So zeigt die genaue Analyse der gespeicherten intrakardialen Elektrogramme und Therapien, daß es bei Patienten mit Kammerflimmern signifikant häufiger zu Schockabgaben bei Kammerflimmern kam. Sollten sich diese Daten in größeren Patientenpopulationen bestätigen, wäre zu überlegen, ob Patienten mit Kammerflimmern als primäres Rhythmusereignis mit den weniger komplexen und kostengünstigeren AICD ohne ATP-Funktion versorgt werden könnten. Der Vergleich der Patienten mit der kardialen Grunderkrankung KHK und DCM zeigt weder einen Unterschied in der primären Rhythmusstörung noch im weiteren klinischen Verlauf. Wie in zahlreichen klinischen Studien belegt, ist auch in unserer Population eine stark eingeschränkte linksventrikuläre Ejektionsfraktion < 35 % der stärkste positive Prädiktor für das Auftreten einer erneuten Rhythmusstörung. Zusammenfassend haben also für identifizierte Hoch-Risiko-Patienten nach überlebtem Herztod weder die primäre Tachyarrhythmie noch die zugrundeliegende Herzerkrankung einen prädiktiven Wert für die Inzidenz von Tachyarrhythmieepisoden. Patienten mit Kammerflimmern als primärem Rhythmusereignis scheinen jedoch weniger vom ATP zu profitieren.