Refine
Year of publication
Document Type
- Doctoral Thesis (3623) (remove)
Language
- German (3623) (remove)
Has Fulltext
- yes (3623)
Is part of the Bibliography
- no (3623)
Keywords
- Gentherapie (12)
- HIV (12)
- Deutschland (11)
- Schmerz (10)
- Nanopartikel (8)
- Apoptosis (7)
- Genexpression (7)
- Mitochondrium (7)
- Paracoccus denitrificans (7)
- RNS (7)
Institute
- Medizin (1388)
- Biochemie und Chemie (446)
- Biowissenschaften (408)
- Pharmazie (237)
- Physik (216)
- Biochemie, Chemie und Pharmazie (98)
- Gesellschaftswissenschaften (95)
- Neuere Philologien (67)
- Psychologie (66)
- Kulturwissenschaften (65)
Es ist bekannt, dass Curcumin in einer Vielzahl verschiedener Zellarten die Proliferation hemmt und Apoptose induziert. In der Literatur werden Konzentrationen von 10 bis 150 µM (3.7-55 µg/ml) als dafür notwendig beschrieben. Da Curcumin nach oraler Aufnahme, aufgrund seiner schlechten Resorption aus dem Magen-Darm-Trakt, eine geringe Bioverfügbarkeit im Organismus aufweist, sind therapeutische Lösungen erforderlich um Curcumin besser nutzen zu können. Aus diesem Grund wurde im Rahmen der vorliegenden Arbeit die Wirkung von geringen Mengen Curcumin, die allein keine Effekte zur Folge haben, in Zusammenwirkung mit Licht untersucht. Es wurde gezeigt, dass bereits Konzentrationen von 0,2-1 µg/ml in Keratinozyten die Proliferation hemmen, wenn sie mit UVA- oder sichtbarer Licht-Bestrahlung kombiniert werden. Desweiteren wurde belegt, dass diese Behandlung Apoptose in HaCaT-Zellen induziert, wobei der mitochondriale Apoptoseapparat aktiviert wird. Dies belegen die Freisetzung von Cytochrom c und die frühe Spaltung der Caspase-9 wohingegen Caspase-8 zeitverzögert aktiviert wurde. Weiterhin wurde dargelegt, dass Erk1/2, PKB/Akt und PKC durch Curcumin/Licht gehemmt werden, wohingegen p38 durch diese Behandlung eine Aktivierung erfährt. Zusätzlich ergab sich ein inhibierender Einfluss auf den EGF-Rezeptor, einem “upstream”-Regulator all dieser Kinasen, und den Transkriptionsfaktor NF-kappaB. Bei in vivo-Studien an immundefizienten Mäusen mit A431-Xenografts hatte eine Behandlung mit i.p. verabreichtem Curcumin und anschließender Bestrahlung mit sichtbarem Licht einen signifikanten inhibitorischen Effekt auf das Tumorwachstum zur Folge. In diesen Tumoren fand eine Reduktion der Ki-67-Expression sowie eine Induktion von „apoptotic bodies“ statt. Western Blot-Analysen bestätigten die Apoptoseinduktion durch eine verstärkte Aktivierung der Caspase-9. Zusätzlich zeigte sich auch eine Hemmung von Erk1/2 sowie EGF-R nach beschriebener Behandlung in den Tumoren. Die Wirkungsweise des Curcumins in Kombination mit Licht in vitro wie auch in vivo weisen auf einen neuen therapeutischen Ansatz einer photodynamischen Therapie hin. Dabei kann durch die Verwendung von sichtbarem Licht auf den Einsatz der karzinogenen UV-Bestrahlung, wie sie in üblichen Phototherapien angewandt wird, verzichtet werden.
1. Die einzelnen Schritte der instrumentellen Zahnextraktion in der Antike sind dem heutigen Vorgehen im Prinzip sehr ähnlich: das Ablösen des supraalveolären Faserapparates, die Luxation und das Herausziehen des gelockerten Zahnes aus der Alveole längs der Zahnachse. 2. Wurzelreste sollten – folgen wir der antiken Literatur – durch eine spezielle Wurzelfaßzange, der „rizagra“, entfernt werden. Die antiken Texte erwähnen nicht die operative Entfernung von Wurzelresten durch Osteotomie. Der Hebel zur Zahnentfernung war den Römern höchstwahrscheinlich unbekannt. 3. Aufgrund der unkalkulierbaren Risiken bildeten sich in der Antike immer wiederkehrende Therapieschritte heraus, die für die Behandlung eines schmerzhaften Zahnes von sämtlichen Autoren medizinischer Abhandlungen empfohlen wurden: - medikamentöse Schmerzausschaltung - medikamentöse Lockerung der Zähne durch Gifte und starke Ätzmittel - Ziehen des gelockerten oder des bereits durch pathologische Prozesse beweglichen Zahnes mit den Fingern - Extraktion des Zahnes mittels einer Zange 4. Die instrumentelle Entfernung des Zahnes wurde nur im äußersten Notfall vorgenommen und wurde in erster Linie von Allgemeinärzten durchgeführt. Ärzte, die auf Zahnbehandlungen spezialisiert waren, werden zwar erwähnt („medicus dentalis“), kommen aber hauptsächlich in den Großstädten (Rom, Alexandria) vor und bilden dadurch die Ausnahme. Von einer „Zahnärzteschaft“ in der Antike kann daher keine Rede sein; wir müssen eher von einem „Außenseiterstatus“ dieses Berufsstandes ausgehen. 5. Die Zahnzange („odontagra“, „forceps“, „dentiducum“) bestand in der Antike aus Eisen. 6. Griff- und Faßteil aller Zangen bilden eine Gerade und entsprechen nach moderner Klassifizierung von Zahnzangen dem Typus der Oberkieferzahnzange. Demnach handelt es sich bei den römischen Zangen um ein Instrument, das die Unterscheidung in Unter- und Oberkiefer nicht kannte. Die einzelne Zange wurde sowohl im Ober- als auch im Unterkiefer sowie auf der linken als auch auf der rechten Kieferseite eingesetzt. Daher könnte man von einer Universalzange sprechen, allerdings mit einer entscheidenden Einschränkung: Die Römer unterschieden den Einsatz von Zangen für den Front- und Seitenzahnbereich. Die Faßenden oder Branchen lassen sich in unterschiedlichen Größen nachweisen, die ähnliche Abmessungen haben wie heutige Zahnzangen. Möglich ist auch, daß es sich bei den „kleineren“ Exemplaren um die in der antiken Literatur beschriebene Wurzelfaßzange, die „rizagra“, handelt. Im Gegensatz hierzu kommen die medizinischen Zangen aus Bronze als Zahnzangen nicht in Betracht, da ihre größere Branchenbreite eine optimale Zahnextraktion nicht erlaubt. Sie fallen zu groß aus und würden bei Luxationsbewegungen wie auch beim Greifen die Nachbarzähne unweigerlich beschädigen. 7. Die bis heute aufgefundenen Zangen decken einen Zeitraum ab, der von der Zeitenwende bis in die Spätantike des 4. nachchristlichen Jahrhunderts reicht. Die ältesten Fundstücke aus datierbaren Fundkomplexen sind die Zangen aus dem Bereich des augusteischen Fundplatzes von Augsburg-Oberhausen (früheste Zangentypen) bis hin zu dem Grabfund von Gadara (Jordanien) aus der Mitte des 4. Jahrhunderts n. Chr. Innerhalb dieser Zeitspanne bleiben die wesentlichsten Konstruktionsmerkmale der Zangen – bis auf die Gestaltung der Enden der Branchen – konstant, eine Erscheinung, die uns auch von der übrigen materiellen Sachkultur der Römer bekannt ist. Bewährte Werkzeuge, Instrumente oder Waffen werden über Jahrhunderte kaum verändert. 8. Zu den wesentlichen Konstruktionsmerkmalen zählen: - die bajonettförmige Gestaltung der Faßenden / Aufbiegung der Branchen - Die Hebelverhältnisse zwischen Griff und Zangenbranchen, die sich zwischen 1:1,7 und 1:2,5 bewegten und damit deutlich unter den Werten heutiger Zahnzangen mit 1:5 liegen, erlaubten demnach nur eine verminderte Kraftwirkung bei der Extraktion. - Das mit einem Schmiermittel beschichtete Zangenschloß setzte sich wahrscheinlich immer aus einem Eisenstift zusammen, der durch zwei angenietete, weichere Buntmetallscheiben fixiert wurde. Die Scheiben setzten die Reibung herab und gaben gleichzeitig den beiden eisernen Schenkeln der Zange eine entsprechende Führung bei Zangenöffnung und Zangenschluß. - Die relativ dünn ausgebildeten, runden oder kantigen Griffe wurden wohl mit einer Griffumwicklung (Textil, Leder) versehen, wodurch ein ergonomisches Zufassen erlaubt und ein Abrutschen der Hand bei Luxations- und Zugbewegungen verhindert wurde. - Ein Abgleiten der organischen Griffumwicklung vom Metall wurde durch die auffälligen und unterschiedlich ausgeführten Verdickungen am Griffende unterbunden. - Durchgängig läßt sich bei der Ausbildung der Branchen eine Veränderung hin zu einer Zahnzange erkennen, die den Zahn mögichst vollständig umfaßt. Im Verlauf von drei Jahrhunderten wurde eine technische Verbesserung vorgenommen: Die anfängliche kneifzangenartige Gestaltung der Branchen wurde zugunsten einer vertieften und hohlkehlartig ausgeformten Gestaltung der Faßenden aufgegeben, aus der sich schließlich die jüngsten Fundstücke mit dornenartigen Branchen entwickelten. Damit wurde der Halt der Zange am Zahn deutlich verbessert und die Gefahr einer Kronenfraktur herabgesetzt. 9. Trotz der beschriebenen Veränderungen der Zahnzangen blieben diese Instrumente von Anfang an multifunktional einsetzbar, da sie nicht nur zum Zahnziehen, sondern auch zum Entfernen von Splittern, Geschossen und Pfeilspitzen verwendet wurden. Daraus resultiert, daß sich keine ausgeprägte Typenvielfalt entwickelte, ein Phänomen, das wir auch von anderen medizinischen Gerätschaften aus der Römerzeit kennen. Bewährte Instrumente wurden über Jahrhunderte eingesetzt, ohne wesentliche Veränderungen zu erfahren. 10. Offenbar verläuft die Entwicklung der Zahnzange parallel zur Herausbildung einer medizinischen Betreuung innerhalb der römischen Armee. Beginnend in der Regierungszeit des Augustus hält diese Entwicklung bis in die Spätantike an. Ein gewisser Einfluß aus Griechenland ist wahrscheinlich, eine Weiterentwicklung durch die Römer gesichert. Möglich ist aber auch, daß die Zahnzange in der vorliegenden Form eine römische Erfindung ist. 11. Der Typus der römischen Zahnzange war dem Mittelalter nach heutigem Stand der Forschung unbekannt. Das europäische Mittelalter nahm Neuerungen aus der Welt der Araber auf (z.B. den Hebel) und entwickelte eigene Instrumente (z.B. den Pelikan). Bis in die Neuzeit (der Zeit des Barock und des Absolutismus) hinein war die Zahnheilkunde weitgehend in den Händen von Handwerkern (Barbiere, Zahnbrecher, niedere Wundärzte). Ob die Kenntnis der römischen Zahnzangen an dieser Entwicklung etwas geändert hätte, ist unwahrscheinlich. Erst durch den technischen Fortschritt des 19. und 20. Jahrhunderts kann die Zahnextraktion sicher und vorhersehbar durchgeführt werden (anatomische Zahnzange, Lokalanästhesie, Röntgenstrahlen, elektrische Lichtquellen und Motoren, kompressorbetriebene Absauganlagen).
P2X-Rezeptoren sind ligandengesteuerte Kationenkanäle, die durch extrazelluläres ATP aktiviert werden. Bisher wurden sieben Isoformen kloniert (P2X1-P2X7), die eine gemeinsame Topologie besitzen, bestehend aus intrazellulären N- und C-Termini, zwei Transmembranregionen und einer großen Ektodomäne. Um funktionelle Ionenkanäle ausbilden zu können, müssen P2X-Untereinheiten in Homo- oder Heterotrimere assemblieren. Das übergeordnete Ziel der vorliegenden Arbeit war das Identifizieren von Proteindomänen, die zu der Trimerisierung von P2X-Untereinheiten beitragen. Hierzu diente in erster Linie die humane P2X5- (hP2X5-) Untereinheit, der durch Herausspleißen von Exon 10 eine Region fehlt, die in der Literatur als eventuell wichtig für die Assemblierung beschrieben wird. Exon 10 kodiert 22 Aminosäuren, die in der distalen Ektodomäne und der äußeren Hälfte der zweiten Transmembranregion liegen. Das Fehlen dieser Aminosäuren führt zu Untereinheiten, die nicht in der Lage sind, zu trimerisieren und funktionelle Ionenkanäle auszubilden. Durch das schrittweise Einsetzen der von Exon 10 kodierten Aminosäuren in die hP2X5-Untereinheit sowie die Expression verschiedener Alanin-Mutanten mit nachfolgender Analyse durch Blaue-Native-PAGE konnte gezeigt werden, dass das fehlerhafte Assemblierungsverhalten der hP2X5-Untereinheit in erster Linie durch das Fehlen der äußeren Hälfte der zweiten Transmembranregion bewirkt wird. Zusätzliche gezielte Mutationen und die Konstruktion von Deletionsmutanten ergaben weiterhin, dass die zweite Transmembranregion vornehmlich als hydrophober Membrananker dient, um die korrekte Topologie und Positionierung von Assemblierungsdomänen zu gewährleisten. Die wichtigsten Assemblierungs-informationen scheinen in der Ektodomäne zu liegen. Die einzige Aminosäure in der zweiten Transmembranregion, die einen spezifischen Einfluss auf die Trimerisierung von hP2X5-Untereinheiten hatte, war 355D. Einzelmutationen in dieser Position zeigten, dass nur Aminosäuren, deren Seitenketten in der Membran interhelikale Wasserstoffbrücken ausbilden können, eine effiziente Trimerisierung ermöglichen. Dieses Ergebnis legte den Schluss nahe, dass 355D die Assemblierung unterstützt, indem es die Interaktion zwischen den Untereinheiten über eine Wasserstoffbrückenbildung stabilisiert. Die Suche nach einem potentiellen Interaktionspartner von 355D in der ersten Transmembranregion durch Einzelmutationen und Cystein-Crosslinking war allerdings nicht erfolgreich. Dies könnte bedeuten, dass die beiden Transmembranregionen jeweils benachbarter Untereinheiten nicht, wie für P2X2-Untereinheiten gezeigt, in einer „head to tail“-Orientierung angeordnet sind, sondern nur die zweiten Transmembranregionen miteinander in Kontakt stehen. Limitierte Proteolyse von hP2X5-Rezeptormutanten ergab einen engen Zusammenhang zwischen der Trimerisierung und der Resistenz gegenüber einer Proteolyse durch Trypsin. Daraus folgt, dass trimerisierungsfähige P2X-Mutanten korrekt gefaltet sind, während ein Verlust der Trimerisierungsfähigkeit eine Fehlfaltung anzeigt. Neben dem hP2X5-Rezeptor wurden auch Ratten-P2X1- (rP2X1-) Rezeptoren untersucht. rP2X1-Konstrukte, die lediglich aus der Ektodomäne sowie einem abspaltbaren Signalpeptid bestanden, konnten zwar partiell multimerisieren, aber keine definierten Trimere bilden. Die Analyse weiterer Konstrukte zeigte, dass beide Transmembranregionen für die Trimerisierung wichtig sind, auch wenn sie keine spezifischen Assemblierungsinformationen enthalten. Ein systematisches Alanin-Scanning der gesamten Ektodomäne der rP2X1-Untereinheit ergab, dass die Ektodomäne multiple Sequenzmotive enthält, die zu der Trimerisierung beitragen. Die genaue Rolle der identifizierten Sequenzmotive muss in weiteren Experimenten geklärt werden. Zusätzlich wurden Chimären aus rP2X1- und Ratten-P2X6- (rP2X6-) Untereinheiten untersucht. Da rP2X6-Untereinheiten nicht in der Lage sind zu trimerisieren, könnten sie in Kombination mit Sequenzelementen aus rP2X1-Untereinheiten ermöglichen, trimerisierungsrelevante Proteindomänen zu identifizieren. Es zeigte sich, dass eine Chimäre, die die Ektodomäne der rP2X1-Untereinheit und die Transmembranregionen und zytosolischen Domänen der rP2X6-Untereinheit enthielt, trimerisieren konnte, während die umgekehrte Chimäre dies nicht vermochte. Dies war ein weiterer Hinweis darauf, dass die Motive, die für die Trimerisierung von P2X-Untereinheiten essentiell sind, in der Ektodomäne liegen. Zusammenfassend belegen diese Ergebnisse, dass die Transmembranregionen bei der Assemblierung im Wesentlichen eine Funktion als hydrophobe Membrananker haben, die die korrekte Topologie und Positionierung der extrazellulären Assemblierungsdomänen ermöglichen. Die initiale Assemblierung wird durch die Ausbildung einer interhelikalen Wasserstoffbrücke über 355D stabilisiert. Somit können die wichtigsten Assemblierungsdomänen in Kontakt treten, die in der Ektodomäne lokalisiert sind.
Die in vivo MR-Protonenspektroskopie (1H-MRS) ist ein nichtinvasives Verfahren, das die Untersuchung biochemischer Substanzen beim Lebenden ermöglicht. In einer prospektiven Studie wurden Patienten, die an einer Demenz vom Alzheimer-Typ (DAT) litten, und altersentsprechende Probanden mit der 1H-MRS untersucht. Im Hirngewebe wurden Konzentrationen von Molekülen bestimmt, die Aussagen über die zelluläre Zusammensetzung ermöglichen. Das Hauptinteresse galt der Untersuchung von Glutamat und Glutamin, da ein Überangebot des Neurotransmitters Glutamat im synaptischen Spalt möglicherweise für die Neurodegeneration beim M. Alzheimer mitverantwortlich ist. Bei 29 Patienten mit einer DAT sowie 19 Probanden wurden zwei Volumina in Kortex und Marklager des Parietallappens bei 1,5 Tesla Magnetfeldstärke mit einer PRESS-Sequenz (TE = 22 ms, TR = 3 s) untersucht. Die Patienten waren kognitiv leicht bis mittelschwer beeinträchtigt (Mini Mental State Examination, MMSE, 11-27 Punkte). Die quantitative Auswertung der Spektren erfolgte nach der "phantom replacement method" mit dem Softwareprogramm LCModel. Als Kriterium für die Zuverlässigkeit der Konzentrationsangaben diente die vom Programm als %SD-Wert angegebene Auswertegenauigkeit der Einzelmessungen. Neben dem Glutamat- und Glutamingehalt wurden der Liquorgehalt im kortikalen Messvolumen und die Konzentrationen der Moleküle N-Acetyl-Aspartat und N-Acetyl-Aspartyl- Glutamat (tNAA), myo-Inositol (mI), Kreatin und Kreatinphosphat (tCr) sowie der cholinhaltigen Substanzen (tCh) bestimmt. Bei den Patienten konnten 25 aussagekräftige Spektren aus der Rindenregion und 19 aus dem Marklager des Parietallappens gemessen werden, bei den Probanden 17 Kortex- und 13 Marklager-Spektren. Glutamat und Glutamin können mit der in vivo-Spektroskopie wegen ihrer sich überlappenden Resonanzen nicht separat bestimmt werden und wurden deshalb als „Glx“ zusammengefasst. Der Glx-Gehalt betrug in der Rindenregion bei den Patienten im Durchschnitt 15,48 ± 5,15 mmol/l, bei den Probanden 13,98 ± 3,14 mmol/l. Die um 11% höhere Konzentration bei den Patienten war nicht signifikant. Die Glx-Konzentrationen im Marklager betrugen 8,16 ± 3,79 mmol/l bei den Patienten und 8,14 ± 3,71 mmol/l bei den Probanden. Nach dem Kriterium der %SD war die Zuverlässigkeit der Konzentrationsbestimmung von Glutamat und Glutamin eingeschränkt, was auf die protonenspektroskopischen Eigenschaften von Glutamat und Glutamin zurückzuführen ist. Sie erzeugen wegen ihrer gekoppelten Resonanzen breite und mehrgipflige Protonensignale, die wegen der resultierenden niedrigen Signalamplitude für LCModel von Makromolekülresonanzen oder von Artefakten, die durch ungenügende Wasserunterdrückung entstehen, schwierig abzugrenzen sind. Die %SD-Werte der Einzelmessungen von tNAA, mI, tCr und tCh waren gering, die Messergebnisse können daher als zuverlässig angesehen werden. Die tNAA-Konzentrationen in beiden Gruppen unterschieden sich weder in der grauen noch in der weißen Substanz signifikant voneinander. Im Hirnrindenvolumen zeigte sich bei den Patienten jedoch eine positive Korrelation von tNAA und MMSE-Ergebnis, also eine Reduktion von tNAA mit zunehmenden kognitiven Einbußen. Dies spricht für eine Abnahme des neuronalen Volumenanteils mit fortschreitender Erkrankung. Der durchschnittliche myo-Inositolgehalt im Marklagervolumen lag in der Patientengruppe um 20% höher als bei den Probanden. Der Unterschied erreichte jedoch kein Signifikanzniveau (p = 0,09). Im Rindenvolumen war die mittlere myo-Inositolkonzentration bei den Patienten um 7% höher als in der Kontrollgruppe, auch hier war der Unterschied nicht signifikant. Der nichtsignifikante myo-Inositolanstieg lässt sich als mäßige entzündliche oder reaktive Gliaproliferation interpretieren. Die tCr-Konzentrationen in beiden Gruppen unterschieden sich nicht, jedoch bestand bei den DAT-Patienten eine positive Korrelation des tCr-Gehalts mit der MMSE-Punktzahl in der grauen Substanz des Parietallappens, die Konzentration nahm also mit zunehmendem Schweregrad der Demenz ab. Bei der durchschnittlichen tCh-Konzentration bestanden keine Gruppenunterschiede in den untersuchten Regionen. Die Patienten wiesen eine signifikante Zunahme des mittleren Liquoranteils um 16% im kortikalen Volumen auf. Dies ist als kortikale Hirngewebeatrophie in frühen und mittleren Stadien der DAT zu werten. Während die in vivo-Konzentrationen von tNAA, mI, tCr und tCh zuverlässig bestimmt werden konnten, war die Messung von Glutamat und Glutamin bei 1,5 T mit technischen Schwierigkeiten verbunden. Wegen der hohen Standardabweichungen konnte aus dieser Untersuchung keine gesicherte Aussage zu einer möglichen Konzentrationsänderung dieser Aminosäuren bei der DAT abgeleitet werden. Es ist zu erwarten, dass hier durch MR-Geräte mit 3 T Feldstärke sowie durch den Einsatz der parallelen Bildgebung ein erheblich höheres Signal/Rausch-Verhältnis und damit genauere Ergebnisse erzielt werden können.
Das Ziel dieser Arbeit ist es, Chronologie und Erscheinungsform volkssprachlicher Schriftzeugnisse zwischen ca. 750 und 1250 im fränkischen Gesamtreich, im ostfränkischen Reich, im entstehenden ‚Deutschen Reich‘, als Folge geistesgeschichtlichen und politischen Wandels in dieser Zeitspanne darzustellen. Explizite soll die disparate Erscheinungsform ‚deutscher‘, volkssprachlicher Texte als Folge sich wandelnder Ziele der Herrscher dargestellt werden: Zielsetzungen, die sich aus dem sich verändernden Weltbild und der sich verändernden politischen Lage ergeben und die das Handeln des Herrschers bestimmen. Anders gefragt: Welche politischen Gründe können fränkische und sächsische Könige und Kaiser im Mittelalter bewogen haben, die ‚deutsche‘ Volkssprache zu fördern und – steht das in Zusammenhang mit der jeweils gültigen Reichsideologie?
Es ist wissenschaftlich belegt, dass hohe Feinstaubbelastungen direkt mit gesundheitlichen Schäden vergesellschaftet sind. Insbesondere in Städten, in denen die Konzentrationen besonders hoch sind, stellt dies ein ernstzunehmendes Problem dar . Ein wesentlicher Beitrag der Feinstaubbelastung ist auf anthropogene Prozesse und insbesondere auf verkehrsbedingte Emissionen zurückzuführen. Hierbei sind Abgase aus Verbrennungsmotoren sowie Brems- und Reifenabrieb zu nennen.
Für die gesundheitliche Risikobewertung einzelner Verkehrsteilnehmer werden mehrheitlich Daten stationärer Messnetzwerke herangezogen. Die Aussagekraft dieser Daten für diesen Zweck wird jedoch mitunter kritisch bewertet.
Um die Feinstaubexposition gegenüber einem Fahrzeuginsassen realistischer beurteilen zu können, erfolgt die Messung der Feinstaubkonzentration im Innenraum eines PKW mit einem mobilen Aerosolspektrometer und GPS-gestützter Standortbestimmung in Frankfurt am Main. Hierbei werden die Konzentrationen für die Partikelfraktionen PM10, PM2,5, PM1 und PMcoarse unter unterschiedlichen Bedingungen kontinuierlich gemessen.
Neben einem Vergleich der mobil gemessenen Feinstaubkonzentrationen mit Daten des stationären Messnetzwerks, werden auch lokale Konzentrationsvariationen sowie Expositionsdifferenzen zwischen Fahrten mit geöffnetem und geschlossenem Fenster analysiert.
Um einzelne Feinstaubquellen identifizieren zu können, wird die Fahrzeugumgebung mit einer Videokamera überwacht.
Im Fahrzeuginnenraum wurden Spitzenkonzentrationen von 508 µg m-3 für PM10, 133,9 µg m-3 für PM2,5, 122,9 µg m-3 für PM1 und 109,8 µg m-3 für PMcoarse (2,5-10 µm) erreicht. Die Konzentration und die Partikelgrößenverteilung im Fahrzeuginnenraum waren stark von der Umgebungsluft abhängig. Die Konzentration feinerer Partikel (PM2,5, PM1) zeigte nur geringe Schwankungen innerhalb der Stadt mit einigen signifikanten Spitzen in der Innenstadt und auf stark befahrenen Straßen. Im Gegensatz dazu wies die PMcoarse-Konzentration starke Schwankungen auf. Die höchsten Werte wurden ebenfalls in der Innenstadt und auf stark befahrenen Straßen gemessen. Durch Analyse des Videomaterials war es möglich, einige Konzentrationsspitzen mit ihren charakteristischen Partikelgrößenspektren den jeweiligen Quellen zu zuordnen.
Die absoluten Partikelkonzentrationen unterschieden sich signifikant zwischen den mobilen und den stationären Messungen, obwohl für feinere Partikel gute Korrelationen beobachtet werden konnten. Insbesondere die bei geöffnetem Fenster gemessenen Fahrzeuginnenraumkonzentrationen waren für alle Partikelgrößen deutlich höher als die entsprechenden Werte der Messstation. Schließlich erfolgte ein direkter Vergleich der Feinstaubkonzentrationen im Fahrzeug zwischen Fahrten mit geöffnetem und geschlossenem Fenster. An jedem Tag wurde nach dem Schließen des Fensters eine Konzentrationsreduktion bei allen Größenfraktionen beobachtet. Grobe Partikel (2,5-10 µm) wurden um 87,9 bis 97,4 %, feinere Partikel (1-2,5 µm) um 77,9 bis 88,2 % und die feinsten Partikel (<1 µm) um 13 bis 52 % reduziert.
Nach Interpretation der vorliegenden Daten sind mobile Messungen für eine Risikoanalyse der Feinstaubexposition auf einen Fahrzeuginsassen unerlässlich. Die Partikelkonzentration im PKW war über alle Fahrten hinweg mäßig bis hoch, wobei die Konzentration von groben Partikeln leicht durch Schließen des Fensters und Nutzung der Klimaanlage reduziert werden konnte. Die Konzentration der feineren Partikel konnte durch diese Maßnahmen nur geringfügig herabgesetzt werden.
Basierend auf den vorliegenden Ergebnissen sollte in zukünftigen Studien auf die Quantifizierung ultrafeiner Partikel eingegangen werden sowie eine ergänzende chemische Analyse der Partikel erfolgen.
Trotz aller Unsicherheit und kritischer Infragestellung sind Kunstlandschaftsbezeichnungen – und damit auch der „Mittelrhein“ – als Hilfsbegriffe für die Lokalisierung der Kunstwerke noch immer gebräuchlich. Aber es ist ganz besonders problematisch, vom Mittelrhein um 1500 als „Kunstlandschaft“ zu sprechen. Schon die Umgrenzung der Region fällt unterschiedlich aus, und noch mehr sind die Kriterien schwankend, die im Vergleich zu anderen Regionen den Mittelrhein definieren sollen. Vorherrschend sind bei solchen Vergleichen nach wie vor Stilbegriffe, welche Vorbehalte gegenüber dem Begriff des Stils auch geäußert werden. So ist die Frage, ob die für den Mittelrhein vorgeschlagene Kennzeichnung „Stilheterogenität“ als Kriterium der Abgrenzung tauglich ist oder mehr eine methodische Verlegenheitslösung darstellt.
Die Untersuchung konzentriert sich auf das Schnitzretabel, das als Leitmedium der spätgotischen Kunst im deutschsprachigen Raum zu betrachten ist. Die analysierten Schnitzretabel sind als Fallstudien anzusehen, wobei hier vor allem jene analysiert worden sind, die einen guten Erhaltungszustand aufweisen. Zwar haben die wenigsten ihr ursprüngliches Aussehen bewahrt, aber entweder sind die Veränderungen nur minimal oder der originale Zustand ist gut rekonstruierbar, sodass die Werkgruppe trotz der Eingriffe als repräsentativ gelten kann. Neben den traditionellen Untersuchungsmethoden konnte die Infrarotreflektographie mit beweglicher Kamera (Osiris) eingesetzt werden. Es soll mit der Vorstellung einer Gattung ein Ausschnitt der in der Region präsenten Kunst ohne „mittelrheinische Vorentscheidungen“ gezeigt werden.
Die meisten analysierten Retabel entstammen der Rhein-Main-Region mit Frankfurt und Mainz als Oberzentren des Mittelrheins; Oberwesel, Speyer und Gelnhausen markieren die Grenze für die Auswahl. Die 27 Einzeluntersuchungen finden sich im Katalogteil der Arbeit, während deren zusammenfassende Darstellung – im Hinblick auf Methode, Standort, Auftraggeber, Künstler, Retabeltyp, Bildprogramm sowie Einflüsse – sowie Ergebnisse im Hauptteil besprochen werden.
Sauerstoff wird in vielen prokaryotischen und eukaryotischen Atmungsketten von der Cytochrom c Oxidase zu Wasser reduziert. Dieses Enzym besteht in Paracoccus denitrificans aus vier Untereinheiten, von denen aber nur die ersten zwei für die Funktion essentiell sind. Elektronen werden von einem membrangebundenen Cytochrom c552 zunächst auf das CuA-Zentrum der Untereinheit II der Oxidase übertragen und gelangen von dort zum low-spin Häm a der Untereinheit I. Am binukleären Zentrum, das aus dem high-spin Häm a3 und dem CuB-Atom besteht, erfolgt schließlich die Reduktion von molekularem Sauerstoff zu Wasser. Hauptziel dieser Arbeit war es, die Bindungsstelle für Cytochrom c durch das gezielte Einführen oder Entfernen negativer Ladungen auf der Oxidase-Oberfläche zu bestimmen. Die Charakterisierung dieser Mutanten erfolgte hauptsächlich durch spektroskopische Analyse der kinetischen Parameter unter Umsatzbedingungen. Zusätzlich wurde der Teilschritt der Susbtratbindung durch die Aufnahme von Assoziationskinetiken untersucht. Als Substrat diente das reduzierte mitochondriale Cytochrom c oder ein lösliches Fragment des Paracoccus-Cytochrom c552. Die eingeführten Mutationen beeinflußten in unterschiedlicher Weise die Bindung der beiden verwendeten Substrate. Hierbei ist der negativ geladene Bereich der Oberfläche von Untereinheit II der Oxidase, der zur Bindung des Paracoccus-eigenen Substrats beiträgt, größer als der für die Wechselwirkung mit dem mitochondrialen Cytochrom c. Erstmals kann somit ein Modell für die Bindung des nativen Substrats an die Paracoccus-Oxidase aufgestellt werden. Die aa3-Oxidase aus Paracoccus zeigte keine Elektronentransfereaktion mit dem Cytochrom c552 aus Thermus thermophilus, da dessen Oberfläche nicht die hierfür erforderlichen Ladungen trägt. Durch Erhöhung der Hydrophobizität auf der Untereinheit II der Paracoccus-Oxidase wurde deren Oberfläche so verändert, dass sie nunmehr auch durch dieses „hydrophobe“ Cytochrom c reduziert werden konnte. Der Aminosäurerest W121 auf der Oberfläche der Untereinheit II wurde in der Vergangenheit als ein möglicher Elektroneneintrittsort in die Cytochrom c Oxidase beschrieben. Die in der vorliegenden Arbeit an dieser Position hergestellten Mutanten zeigten zwar drastische Einbußen in den maximalen Wechselzahlen, aber eine weitgehend unveränderte Affinität zum Cytochrom c. Die exakte Positionierung der Seitengruppe des Tryptophans spielt hierbei gegenüber der Aromatizität die entscheidende Rolle. An benachbarten Positionen eingeführte Mutationen ergaben keine Hinweise auf alternative Elektroneneintrittsorte. Durch ortsspezifische Mutagenese auf dem löslichen Cytochrom c552-Fragment wurden die Lysine auf der Oberfläche entfernt, um zu klären, ob die Wechselwirkung zwischen Cytochrom c und Oxidase auf Ladungspaaren beruht oder über das Gesamtpotential der Bindungsstellen bestimmt wird. Die Lysin-Mutanten zeigten alle im gleichen Maße eine reduzierte Affinität zur Oxidase. Die vorliegenden Ergebnisse lassen den Schluß zu, dass die Wechselwirkung zwischen Oxidase und Cytochrom c552 über das Gesamt-Oberflächenpotential vermittelt wird. Steady-state-Kinetiken unter Verwendung von Pferdeherz-Cytochrom c oder Paracoccus Cytochrom c552 weichen von den klassichen Michaelis-Menten-Verhalten ab, da zwei separate Phasen für die Kinetik beobachtet werden. Dieses Phänomen bisher wurde mit der Anwesenheit einer zweiten Bindungsstelle oder einer redoxgekoppelten Konformationsänderung der Oxidase erklärt. Durch Untersuchungen von Oxidase-Präparationen mit unterschiedlicher Untereinheiten-Zusammensetzung oder gebundenem Antikörper konnte gezeigt werden, dass die Biphasizität der Oxidase-Kinetik ! nicht auf der Anwesenheit der Untereinheiten III und IV beruht, ! durch die spezifische Bindung von Antikörpern zu niedrigeren Ionenstärken verschoben wird bei gleichzeitiger Verringerung der Affinität zum Substrat, ! eine intrinsische Eigenschaft aller untersuchten Mutanten ist. Im Rahmen dieser Untersuchungen konnten keine Hinweise auf eine zweite Cytochrom c Bindungsstelle gefunden werden. Ein weiteres Ziel dieser Arbeit war die Expression, Reinigung und Charakterisierung des homologe, membrangebundenen Cytochrom c552 aus P. denitrificans. Das Protein wurde mit einem Histidin-Tag versehen und heterolog in E. coli in guter Ausbeute exprimiert und gereinigt. Seine Charakterisierung über steady-state-Messungen ergab ein deutlich verschobenes pH-Optimum mit höherer Affinität zur Oxidase im Vergleich zu seinen verkürzten löslichen Fragmenten.
In dieser Arbeit werden die Antidepressiva der neueren Generation im Hinblick auf ihre Relevanz für den Straßenverkehr untersucht. Die Notwendigkeit der Arbeit ergab sich dadurch, dass trotz der relativ guten Verträglichkeit der neuen Antidepressiva wenig Wissen über ihre mögliche Beeinflussung der Fahrtüchtigkeit von Verkehrsteilnehmern vorhanden ist. Der rechtsmedizinische Gutachter wird bei Verkehrsdelikten jedoch aufgefordert, den möglichen Einfluß von Medikamenten auf die Fahrtüchtigkeit aufgrund wissenschaftlicher Fakten darzulegen. Seine Beurteilung hat wesentliche strafrechtliche und versicherungsrechtliche Konsequenzen. Die juristischen Voraussetzungen für die Teilnahme am Straßenverkehr und die Anforderungen an die Verkehrsteilnehmer in der heutigen Verkehrssituation werden in der Einleitung der Arbeit erörtert. Die Problemstellung beinhaltet nicht nur die Darlegung der komplexen, von vielen Komponenten abhängigen Beurteilungslage der sachverständigen Rechtsmediziner, sondern auch die Beschreibung der vielfältigen kognitiven und psychomotorischen Leistungsanforderungen an die Kraftfahrer. Hinzu kommt die schwierige, aber geforderte, Selbstbeurteilung der Fahrtüchtigkeit durch die Verkehrsteilnehmer, die in einer eigenen Befragung von 100 Patienten untersucht und erörtert wurde. Die angeführte Routineerhebung des Instituts für forensische Toxikologie der Universität Frankfurt gibt Auskunft über die Häufigkeit des Vorkommens und über die Blutkonzentrationen von neuen Antidepressiva. Die grundsätzliche Wirkungsweise der einzelnen Antidepressiva wurde beschrieben. Diese werden in 4 große Gruppen mit verschiedenen biochemischen Reaktionen unterteilt: SSRI (Selektive Serotonin-Wiederaufnahmehemmer), SNARI (Selektive Noradrenalin-Wiederaufnahmehemmer), SNRI (Selektive Serotonin-Noradrenalin-Wiederaufnahmehemmer) und NASSA (Noradrenerge und spezifisch serotonerge Antidepressiva). Die einzelnen Medikamente dieser Gruppen werden detailliert nach folgenden Kriterien untersucht: der biochemischen Wirkung, mit ihren möglichen verkehrsrelevanten Nebenwirkungen, ihren Interaktionen mit anderen Medikamenten und nach ihrer Bearbeitung in Studien zur Verkehrsrelevanz in der neueren internationalen wissenschaftlichen Literatur. In der eigenen Erhebung wird der Frage nach den Nebenwirkungen der Antidepressiva in der Praxis und und der Frage der Selbstbeurteilung der Patienten über ihre Fahrtüchtigkeit nachgegangen. Die aufgezeigte Routine des Instituts für forensische Toxikologie gibt über die bei Blutkontrollen gefundenen Präparate und deren Blutspiegel Auskunft. Bei den neueren Antidepressiva mit Aunahme von dem NASSA Mirtazapin wird von den Pharmafirmen angegeben, dass sie die Fahrtüchtigkeit in der Regel nicht beeinflussen. (Ausnahmen behalten sich die Pharmafirmen immer vor). In Tests wurde jedoch durchaus bei den SSRIs Citalopram, Fluoxetin und Paroxetin eine Beeinträchtigung der Langzeitvigilanz und des Gedächtnisses gefunden, die auf die serotonerge Stimulation zurückzuführen sind. Ob hierdurch in der realen Fahrsituation die Fahrtüchtigkeit beeinträchtigt ist oder Defizite kompensiert werden können, ist eine offene Frage. In der eigenen Untersuchung wurde hierzu festgestellt, dass Patienten durchaus über fraglich verkehrsrelevante Nebenwirkungen klagten, aber der Meinung waren, ihre Fahrtüchtigkeit sei nicht beeinträchtigt, weswegen sie sich ans Steuer setzten. Es zeigte sich, dass es nur wenige Studien gibt, die die einzelnen Medikamente in Bezug auf ihre Verkehrsrelevanz testeten. Es wurden überwiegend die kognitiven und psychomotorischen Leistungen unter Einnahme der Medikamente durch computergestützte Tests untersucht. Es gibt noch keine Studien von Antidepressiva an einem Fahrsimulator mit Einspielung von möglichen akuten Ereignissen im Straßenverkehr. Der Fahrtest auf der Strasse, bei dem die laterale Abweichung von einer Ideallinie gemessen wird, korreliert nicht mit den Studiotests. Auch korreliert eine subjektiv empfundene Müdigkeit nicht mit den computergestützten Tests. Die Aussagen über die Fahrtüchtigkeit unter Medikamenten werden überwiegend nach den Testergebnissen über kognitive und psychomotorische Beeinflussungen durch die Medikamente getroffen. Alle diese Tests sind nicht sensitiv genug, um die reale Situation im Straßenverkehr zu erfassen, geben jedoch Hinweise auf die Wirkungsweise der Medikamente. Daraus ist die äußerst schwierige Situation für den begutachtenden Sachverständigen zu erkennen. Es gibt keine generellen Grenzwerte der Blutkonzentrationen der verschiednen Medikamente, bei denen, wie bei Alkohol, eine Fahruntüchtigkeit vorliegt. Die Einzelfallbeurteilung ist unumgänglich. Hierbei müssen diverse personenbezogenen Faktoren, die für die Teilnahme im Straßenverkehr wichtig sind, erfasst werden. In der Diskussion werden diese Faktoren erörtert und aufgelistet. Diese müssen in Beziehung gesetzt werden zu den möglichen Nebenwirkungen der Medikamente. Andererseits muß auch berücksichtigt werden, dass durch die Medikamente eine Fahrtüchtigkeit wiederhergestellt werden kann, die durch die Grunderkrankung infrage gestellt war. Diese Arbeit soll dem Rechtsmediziner wissenschaftlich fundierte Fakten liefern, die er für eine Begutachtung verwerten kann.
Hintergrund: Die LCPUFA der Zellmembran sind Ausgangspunkt für die Synthese von Lipidmediatoren und können je nach freigesetzter Fettsäure von der Zelle in pro- oder antientzündliche Mediatoren verstoffwechselt werden. LCPUFA können das Reaktionsprofil von Zellen beeinflussen, indem sie selbst oder die aus ihnen entstandenen Lipidmediatorderivate an Rezeptoren binden oder auf Genebene ihre Wirkung entfalten. Sowohl das antientzündliche Potenzial der Einzelfettsäuren EPA, DHA, GLA und SDA als auch die Wirkung des n-6/n-3-Verhältnisses wurden bereits in zahlreichen Studien gezeigt. Jedoch wurde noch nicht ausführlich auf den Einfluss einer Kombination verschiedener LCPUFA eingegangen, die sich im Hinblick auf die Verstoffwechselung von n-3- und n-6-Fettsäuren durch gleiche Enzyme wechselseitig beeinflussen können.
Zielsetzung: Ziel dieser Arbeit war es deshalb, den Einfluss von mehrfach ungesättigten Fettsäuren allein und in Kombination auf die COX-2-abhängige Inflammation in A549-Lungenepithelzellen zu untersuchen. Die Inkubation der Zellen mit den Einzelfettsäuren EPA, DHA, GLA und SDA wurde einem LCPUFA-Mix aus diesen vier Fettsäuren gegenübergestellt. Es wurde die IL-6-Produktion und die COX-2-Expression in CM1-stimulierten A549-Zellen als Marker einer Entzündung mittels CBA bzw. Durchflusszytometrie gemessen.
Ergebnisse: Durch die Oberflächencharakterisierung der A549-Zellen mittels Durchflusszytometrie konnte ihre Funktion im Immunsystem hervorgehoben werden. Die Inkubation mit den LCPUFA führte zur Aufnahme in die Zellmembran und zur weiteren Verstoffwechselung der Fettsäuren, wie sich gaschromatographisch nachweisen ließ. Der LCPUFA-Mix (0,02 pmol/Zelle) konnte die CM1 induzierte COX-2-Expression nur tendenziell erniedrigen. Im Gegensatz dazu ließ sich die COX-2-Expression durch eine gleiche Menge an EPA (0,02 pmol/Zelle) sehr signifikant (von 26,81% ± 2,78 auf 16,43% ± 1,45, p < 0,01) reduzieren. Die CM1-induzierte IL-6-Produktion wurde weder durch eine Einzellfettsäure EPA, DHA, GLA oder SDA noch den LCPUFA-Mix signifikant gesenkt.
Diskussion: In Übereinstimmung mit Corbière et al. wurden phänotypische Oberflächenmarker auf den A549-Zellen mittels Durchflusszytometrie gemessen, die sie zur Antigenpräsentation gegenüber T-Lymphozyten befähigen und zeigen, dass sie Teil des Immunsystems sind.[76] Im Gegensatz zum LCPUFA-Mix inhibierte EPA die COX-2-Expression. Zwar ist EPA die Hauptkomponente des LCPUFA-Mixes, dieser enthält aber zusätzlich DHA, GLA und SDA. Eine der vorgenannten drei Fettsäuren könnte den hemmenden Effekt des EPAs auf die COX-2 gemindert haben. Es ist aber auch denkbar, dass eine Interaktion der verschiedenen Fettsäuren zu einer geringeren Hemmung geführt hat. Auch andere Forschungsergebnisse bestätigen, dass die Stärke des Effektes von Fettsäuren abhängig von ihrer Kombination und Konzentration ist. Es stellt sich ein Wirkmaximum auf die Genexpression ein, das durch weitere Erhöhung der Fettsäuren nicht gesteigert werden kann und eventuell sogar ins Gegenteil umschlagen könnte. Gleissman et al. stellten erhöhte Spiegel an AA und COX-2 sowie einen geringeren Anteil an EPA und DHA in Tumorgeweben fest.[37] Für die A549-Zellen zeigten sich in der gaschromatographischen Messung ebenfalls im Vergleich zum AA-Anteil (5,72% ± 0,09) ein geringerer EPA- (0,95% ± 0,37) und DHA-Anteil (0,60% ± 0,07). Für COX-2-Inhibitoren konnten bereits antineoplastische Eigenschaften nachgewiesen werden.[94] Dies könnte ein Grund für die eingeschränkte Zellviabilität im XTT-Test bei höheren Fettsäure-Konzentrationen sein.
Fazit: Die Ergebnisse dieser Arbeit zeigen, dass im Gegensatz zu DHA, GLA, SDA und dem LCPUFA-Mix nur EPA eine signifikante antiinflammatorische Wirkung auf die COX-2 ausübte. Jedoch konnte kein signifikanter antiinflammatorischer Effekt hinsichtlich der Produktion des proinflammatorischen Cytokins IL-6 festgestellt werden. Zusammenfassend kann gesagt werden, dass weder einer alleinigen Fettsäure noch dem LCPUFA-Mix eine überlegene antiinflammatorische Wirkung auf alle hier untersuchten Parameter zugeordnet werden konnte.
In der vorliegenden Arbeit wurde das Auftreten einer Fatigue und Depression mit verschiedenen Messinstrumenten in den beiden Vergleichsgruppen Patienten mit einem Prostatakarzinom unter GnRH-Analoga-Therapie im Vergleich zu Patienten mit einem benignen Prostatasyndrom (BPS) untersucht.
Dabei wurde neben der Erhebung des sozioökonomischen Status eine Befragung mittels Brief Fatigue Inventory (BFI), EORTC-QLQ-C30 und dem Beck Depressions-Inventar (BDI) durchgeführt. Die Hypothese war, dass kein Unterschied im Vorhandensein der beiden Merkmale Fatigue und Depression zwischen den beiden Gruppen besteht.
Insgesamt konnten 102 Prostatakarzinom- und 100 BPS-Patienten in die zuvor von der Ethikkommission der Landesärztekammer Hessen genehmigte Studie eingeschlossen werden. Die Datenerhebung erfolgte an ambulanten Patienten in den urologischen Praxisstandorten Prof. Dr. Bickeböller (Frankfurt) und PD Dr. Engl (Oberursel).
In der Auswertung stellte sich ein signifikanter Unterschied hinsichtlich des Durchschnittsalters der Probanden (74,2 Jahre bei den Prostatakarzinompatienten, 70,1 Jahre bei den BPS-Patienten) dar. Bei der Schulbildung und dem Familienstand bestand kein signifikanter Unterschied.
Es konnte gezeigt werden, dass die Fatigue gemessen mittels BFI-Score keinen signifikanten Unterschied zwischen den beiden Gruppen erreichte. Der mittlere BFI-Score bei den Prostatakarzinompatienten lag bei 2,86 und bei den BPS-Patienten bei 2,79 Punkten. Von einer behandlungsbedüftigen, klinisch relevanten Fatigue spricht man nach allgemeinem Konsens bei einem Punktewert > 3. Diese lag bei 36,7% der Prostatakarzinompatienten und bei 33,7% der BPS-Patienten vor (p = 0,321).
Im EORTC-QLQ C30 Fragebogen ergaben sich signifikante Unterschiede für die Funktionscores Rollenfunktion (p = 0,038) und physische Funktion (p = 0,020) sowie für den Symptomscore Fatigue (FA-Score) (p = 0,047) zugunsten der BPS-Patienten, die jeweils bessere Werte erzielten. Dabei lag der durchschnittliche Punktewert der Rollenfunktion bei den Prostatakarzinompatienten mit 70,1 Punkten niedriger als bei den BPS-Patienten mit 77,5 Punkten. Der durchschnittliche Score für die physische Funktion lag bei den Prostatakarzinompatienten bei 71,0 Punkten (BPS-Patienten 78,4 Punkte) und der FA-Score bei 38,3 Punkten (BPS-Patienten 31,4 Punkte), wobei berücksichtigt werden muss, dass beim FA-Score niedrigere Punktewerte ein geringeres Ausmaß an Fatigue repräsentieren.
Der BDI offenbarte signifikante Unterschiede (Angabe in Mittelwerten) bei den Attributen „Selbstkritik“ (Prostatakarzinompatienten 0,23 Punkte, BPS-Patienten 0,44 Punkte, p = 0,015), „Energieverlust“ (Prostatakarzinompatienten 1,01 Punkte, BPS-Patienten 0,71 Punkte, p = 0,020) und „Verlust an sexuellem Interesse“ (Prostatakarzinompatienten 1,65 Punkte, BPS-Patienten 0,69 Punkte, p = 0,000). Von einer milden depressiven Symptomatik spricht man vereinbarungsgemäß ab einem BDI-Gesamt-Mittelwert von ≥ 14 Punkten. Der Mittelwert unserer beiden Vergleichsgruppen lag bei 10,29 (Prostatakarzinompatienten) und 8,6 (Patienten mit BPS) und war mit p = 0,608 nicht signifikant unterschiedlich. Eine Korrelation zwischen Fatigue und Depression konnte nicht erfolgen, da die Anzahl der Patienten mit einer moderaten/schweren Depression aufgrund der kleinen Fallzahl zu gering war.
Insgesamt konnte bei keinem der untersuchten Messinstrumente eine signifikante Korrelation zum Alter oder zum Familienstand festgestellt werden. Es zeigte sich ein signifikanter Unterschied (p = 0,029) im Vergleich der Schulbildung zum Ausmaß der Fatigue im FA-Score bei Prostatakarzinompatienten zuungunsten einer niedrigeren Schulbildung. Bei den BPS-Patienten konnte dieser Sachverhalt nicht gezeigt werden.
Zusammenfassend kann festgestellt werden, dass kein signifikanter Unterschied der beiden Gruppen in Hinblick auf das Ausmaß der Fatigue gemessen mit dem BFI-Score und das Auftreten einer Depression gemessen mit dem BDI besteht. Der signifikante Unterschied der Fatigue gemessen mittels FA-Score des EORTC-QLQ-C30 Fragebogens kann mit einem von Knobel et al. beschriebenen floor/ceiling effect erklärt werden, der bei Karzinompatienten das Ausmaß der Fatigue aufgrund von physischen Einschränkungen überschätzt und bei gesunden Patienten unterschätzt.
Dass Patienten mit einer benignen Grunderkrankung wie dem Prostatasyndrom im gleichen Ausmaß an Fatigue leiden wie Prostatakarzinompatienten wurde in unserer Arbeit erstmalig gezeigt und bedarf der weiteren Forschung, da die bislang bekannten pathophysiologischen Faktoren der Fatigue kein ausreichendes Erklärungsmodell bieten. Eine gestörte Nachtruhe durch die vermehrt im Rahmen des BPS auftretende Nykturie kann als eine der Ursachen angenommen werden, diesbezüglich sollten zukünftig weitere Untersuchungen stattfinden.
Optimierung Apolipoprotein-modifizierter Albumin-Nanopartikel zur Überwindung der Blut-Hirn-Schranke
(2007)
Das Gehirn höherer Säugetiere ist durch die Blut-Hirn-Schranke vor dem Eindringen toxischer und schädlicher Substanzen geschützt. Allerdings bildet diese Barriere auch ein Hindernis für die gezielte medikamentöse Therapie von Erkrankungen des zentralen Nervensystems wie zum Beispiel Alzheimer, Gehirntumore oder Parkinson. Leider sind nur wenige potentielle Arzneistoffe für die Therapie dieser Krankheiten in der Lage die Blut-Hirn-Schranke zu überwinden. Somit stellt die Blut-Hirn-Schranke einen limitierenden Faktor für die Arzneimitteltherapie dar. Diese Doktorarbeit beschäftigt sich mit der Herstellung, Charakterisierung, in vitro und in vivo Testung Liganden-modifizierter Nanopartikel auf Proteinbasis zur Überwindung der Blut-Hirn-Schranke. Als Ligand wurde das Apolipoprotein E, ein Bestandteil von physiologisch vorkommenden HDL, VLDL und LDL-Partikel, verwendet, welches sich in vorangegangenen Untersuchungen als potentieller Ligand zum Transport von Nanopartikeln ins Gehirn erwiesen hat. Diese so mit Apolipoprotein modifizierten Nanopartikel wurden mit dem Modellarzneistoff Loperamid, einem nicht gehirngängigen Opioid, beladen. Diese Zubereitung wurde Mäusen injiziert und der analgetische Effekt mittels des Tail-Flick-Tests bestimmt. Um auch eine therapeutische Anwendung zu erzielen, wurden Apolipoprotein modifizierte Partikel beladen mit dem Zytostatikum Doxorubicin entwickelt und die chemotherapeutische Effizienz an Gehirntumor tragenden Ratten getestet.
Regulation des matrizellulären Proteins SMOC-1 durch Zytokine und Stickoxid in Rattenmesangiumzellen
(2009)
Zytokine stimulieren in Mesangiumzellen die Produktion und die Freisetzung großer Mengen entzündlicher Mediatoren. In dieser Arbeit wurden mit Hilfe der RAP-PCR („RNA arbitrarily primed polymerase chain reaction“), einer auf mRNA basierenden „Differential display“-Methode, die Effekte von Interleukin-1β (IL-1β) auf das Genexpressionsmuster in glomerulären Rattenmesangiumzellen untersucht. Dabei wurde das matrizelluläre Glykoprotein „Secreted modular calcium-binding protein-1“ (SMOC-1) identifiziert, welches in Mesangiumzellen durch IL-1β herunterreguliert wird. SMOC-1 wird von verschiedenen Zelltypen exprimiert und sezerniert, doch seine biologische Funktion konnte bisher nicht aufgedeckt werden. Weitere Experimente bestätigten, dass die mRNA- und Proteinexpression von SMOC-1 durch proinflammatorische Zytokine, wie IL-1β und Tumornekrosefaktor-α (TNF-α) herunterreguliert wird. Dieser Effekt wird zu einem großen Teil durch die endogene Freisetzung von Stickoxid (NO) aufgrund der Aktivität der induzierbaren NO-Synthase (iNOS) und der nachfolgenden Aktivierung der löslichen Guanylatzyklase (sGC) vermittelt. Außerdem tragen auch reaktive Sauerstoffver-bindungen (ROS), deren Bildung durch die Zytokine verstärkt wird, zur Herunter-regulierung der SMOC-1-Expression bei. Durch In-situ-Hybridisierungsexperimente konnte ferner gezeigt werden, dass die Hemmung der NO-Synthese durch den spezifischen iNOS-Inhibitor L-NIL in einem Rattenmodell der anti-Thy1.1-Glomerulonephritis die SMOC-1-Expression deutlich erhöhte. Dies belegt somit auch in vivo die biologische Relevanz von NO in der Modulierung der SMOC-1-Expression. Die funktionelle Rolle von SMOC-1 in Mesangiumzellen wurde durch die Hemmung der SMOC-1-Expression mit Hilfe einer spezifischen siRNA untersucht. Dabei zeigte sich, dass die Hemmung von SMOC-1 eine deutliche Inhibierung der mRNA-Expression von „Transforming growth factor β1“ (TGF-β1) sowie dessen Gesamtproteinspiegel zur Folge hat. Auch die Aktivität von TGF-β1 wurde reduziert, wie anhand der verringerten Spiegel an aktivem TGF-β1-Protein und der verringerten mRNA-Expression bekannter TGF-β-regulierter Gene, wie „Connective tissue growth factor“ (CTGF), „Plasminogen activator inhibitor-1“ (PAI-1) und Biglykan gezeigt wurde. Diese Ergebnisse deuten auf eine Rolle von SMOC-1 bei der Modulierung des TGF-β1-Signalwegs hin. Zusammenfassend betrachtet scheint NO die SMOC-1-Expression in der akuten glomerulären Entzündung zu vermindern und dadurch die TGF-β-getriebenen profibrotischen Signalprozesse zu limitieren. Der zweite Aspekt dieser Arbeit befasst sich mit der Rolle von Peroxisomen-Proliferator-aktivierten Rezeptoren (PPAR) in der IL-1β-vermittelten Expression der induzierbaren NO-Synthase. PPARα-Aktivatoren steigern in Mesangiumzellen die IL-1β-induzierte Aktivität der iNOS, während die Hemmung von PPARα durch spezifische Inhibitoren oder siRNA die iNOS-Expression/-Aktivität deutlich reduziert. Die Ergebnisse von Promotor-studien zeigten die essentielle Rolle einer möglichen PPAR-Bindestelle im iNOS-Promotor. IL-1β scheint die Bildung eines endogenen PPAR-Liganden zu induzieren, wodurch die Bindung von PPAR-Proteinkomplexen an das regulatorische DNA-Element im iNOS-Promotor verstärkt und dessen Aktivität gesteigert wird. Daneben scheinen jedoch auch Nebeneffekte der PPAR-Aktivatoren, wie die Freisetzung von ROS, zur synergistischen Wirkung auf die IL-1β-induzierte iNOS-Expression beizutragen. Die Wirkung von dualen PPARα/γ-Aktivatoren auf entzündliche Prozesse wird seit längerem diskutiert, daher wurden die biologischen Effekte von neu synthetisierten möglichen dualen PPARα/γ-Aktivatoren auf Entzündungsparameter, wie z. B. die iNOS-Expression, in Mesangiumzellen untersucht. Alle untersuchten Aktivatoren steigerten in der Form von Esterverbindungen die IL-1β-induzierte Expression der iNOS sowie der sekretorischen Phospholipase A2 (sPLA2), während die entsprechenden freien Säuren wenig Effekte zeigten. Diese proinflammatorische Wirkung scheint jedoch weniger auf einer Aktivierung des PPAR-Rezeptors zu beruhen als auf der Freisetzung von ROS, die durch die Aktivatoren teilweise deutlich erhöht wurde. Weitere Experimente zur Charakterisierung der PPAR-spezifischen Wirkung der Aktivatoren sowie zur optimalen Wirkkonzentration sind nötig, bevor der Effekt dieser Aktivatoren auf die inflammatorische Genexpression genau bewertet werden kann.
Das medulläre Schilddrüsencarcinom ist ein maligner Tumor der parafollikulären calcitoninbildenden C-Zellen der Schilddrüse. In der Nachsorge der Patienten mit MTC stellt die Bestimmung des Calcitonin und CEA-Wertes im Serum zurzeit den Gold-Standard dar. In den letzten Jahren hat die Einführung der in hohem Maße sensitiven RT-PCR-Technik die Diagnose und den frühen Nachweis von Metastasen bei einigen Krebsformen verbessert. Die vorliegende Arbeit beschreibt eine Methode, mit welcher der molekulare Nachweis der Calcitonin-mRNA und carcinoembryonale Antigen-mRNA im peripheren Blut von Patienten mit medullärem Schilddrüsencarcinom und nachgewiesenen Fernmetastasen durchgeführt wurde. Bei keinem der untersuchten Patienten konnte CT-mRNA im peripheren Blut nachwiesen werden, obwohl die CT-Werte im Serum bei allen MTC Patienten erhöht waren. CEA mRNA wurde häufiger bei Patienten mit MTC (54 %) als in der Kontrollgruppe (34,4%) nachgewiesen. Der Grund für den hohen Anteil falsch positiver CEA-mRNA Nachweise bei Kontrollpatienten ist unbekannt. Vermutet wird eine „illegitime Transkription“. Die Ergebnisse zeigen, daß Calcitonin mRNA kein geeigneter Parameter für den Nachweis zirkulierender Tumorzellen bei Patienten mit medullärem Schilddrüsencarcinom ist. Im Gegensatz dazu könnte der Nachweis der CEA mRNA eine Verbesserung der frühen Diagnose des metastasierten medullären Schilddrüsencarcinoms darstellen.
In der Arbeit wurde der Deutschunterricht im Iran in Bezug auf seine Gegenstände, Ziele, Methoden und die ihn anbietenden Institutionen auf diskurstheoretischer Grundlage besonders im Hinblick auf Aspekte interkultureller Kommunikation beschrieben und untersucht. Wenn gerade die kommunikativen Aspekte des Deutschunterrichts in den Blick genommen werden, darf nicht übersehen werden, dass dabei nicht nur rein sprachliche, sondern auch kulturelle Aspekte des Lehrens und Lernens zu berücksichtigen sind. Die Ziele der Arbeit in Fragen der Deutschdidaktik ergeben sich aus besonderer Beachtung dieser Aspekte und sind auf Forschung, Lehre und Analysemethoden bezogen. Die einzelnen Kapitel sind explorativ und vermitteln insgesamt einen Eindruck von der Vielfalt der Fragestellungen und so auch von den neueren Entwicklungen und Fragestellungen, die sich in der unterrichtlichen Kommunikation bei iranischen Deutschlernern und –lehrern aufgetan haben. Das umfangreiche Material, das hier erstmals in einer bearbeitungsfähigen Form zur Verfügung gestellt wurde, bietet den Lesern reiche Möglichkeiten, weitere Phänomene interkultureller Kommunikation selbst zu entdecken und zu untersuchen. Darüber hinaus wird sprachliches Handeln im DaF-Unterricht im Hinblick auf „interkulturelle Kommunikation“ und auf die Möglichkeit, die „Diskursanalyse“ als Untersuchungsmethode darauf anzuwenden, beleuchtet.
Die Montagne Noire am Südrand des französischen Zentralmassivs gehört in das Vorland der französischen Varisziden. Es handelt sich um einen metamorphen Kemkomplex mit einem Kern ("Axialzone") aus Graniten sowie teilweise migmatisierten Ortho- und Paragesteinen. Die Axialzone wird im Norden ("Nordflügel") und Süden ("Südflügel") von paläozoischen Sedimenten umrahmt. Der Nordflügel wird in die "westlichen Monts de Lacaune" (im Westen) und die "Nördliche Schuppenzone" (im Osten) unterteilt und besteht aus Gesteinen mit kambrischem bis silurischem Alter. Der Südflügel wird von einem Stapel aus mehreren Deckeneinheiten aufgebaut, deren stratigraphisches Alter vom Kambrium bis ins Karbon reicht. Die Deckeneinheiten heißen (von oben nach unten im Stapel): Pardailhan-Decke, Minervois-Decke, Mont Peyroux-Decke, Faugeres-Decke und Parautochthon. Die Montagne Noire repräsentiert den seltenen Fall eines "heißen" metamorphen Kernkomplexes, ist aber auch ein ideales Gebiet für vergleichende methodische Studien der sehr niedriggradigen Metamorphose: unterschiedliche Gesteinstypen (Sand- und Siltsteine, Tonschiefer, verschiedene Karbonate) lassen sich quer zur Metamorphosezonierung vom Bereich der Diagenese bis in die Grünschieferfazies verfolgen. In der vorliegenden Arbeit wurde die tektono-metamorphe Entwicklung der niedriggradigen paläozoischen Sedimente untersucht. Dazu wurde eine flächenhafte Studie der Schichtsilikatentwicklung in den Peliten durchgeführt. Es wurden folgende Methoden angewandt: Kubier Index ("Illitkristallinität"), Arkai-Index ("Chloritkristallinität"), "bo-Index" (zur Bestimmung des geothermischen Gradienten), Polytypie-Untersuchungen, sowie an ausgesuchten Proben Mikrosondenanalytik und Röntgenfluoreszenzanalyse. Femer wurden von K. Wemmer (Göttingen) an einigen Proben K-Ar-Datierungen der Feinfraktionen (<2 mikro m und <0,2 mikro m) durchgeführt, um die Entwicklung auch zeitlich zu erfassen. Die petrologischen und geochronologische Daten wurden zur Deformation in Bezug gesetzt. Dabei wurden sowohl Literaturdaten als auch eigene strukturgeologische Befunde verwendet. Es konnten drei tektono-metamorphe Hauptphasen nachgewiesen werden: Die erste Phase (D1 entspricht dem variszischen Deckenbau. Dabei wurde eine M1-Metamorphose angelegt, die durch den bo-Index als Mitteldruck-Metamorphose charakterisiert werden kann. Das Strukturinventar belegt einen etwa südgerichteten tektonischen Transport während D1. Diese Phase ist in der Nördlichen Schuppenzone sowie im W-Teil der Pardailhan-Decke erhalten. Das Alter dieser Phase konnte in kambro-ordovizischen Gesteinen mit der K-Ar-Methode auf 340 bis 330 Ma datiert werden. Diese Alter zeigen eine gute Übereinstimmung mit Ar/Ar-Datierungen aus den im N angrenzenden grünschieferfaziellen Decken des Albigeois. In den tieferen Decken des Südflügels, die ursprünglich weiter im Süden gelegen haben, kann die D1-Deformation erst nach Ende der Flyschsedimentation an der Grenze Vise/Namur (<320 Ma) stattgefunden haben. Die zweite Phase (D2) entspricht dem Aufstieg des metamorphen Kemkomplexes. Im Kontakt mit dem aufsteigenden, heißen Kern ist der größere Teil der paläozoischen Hüllschichten kinematisch und thermisch geprägt wurden. Dabei sind Strukturen und Mineralbestand von D1 und M1 ganz oder teilweise gelöscht worden. Die Extensions-bedingte penetrative S2-Schieferung ist im größten Teil des Südflügels das dominante Flächensystem: dies gilt für das Parautochthon, die gesamte Faugeres-Decke. den westlichen Teil der Mont Peyroux-Decke, den östlichen Teil der Pardailhan- Decke und wahrscheinlich auch die Minervois-Decke. Der Grad der Mz-Metamorphose, die auch in den westlichen Monts de Lacaune (Nordflügel) die prägende Metamorphose ist, nimmt generell mit zunehmender Entfernung von der Axialzone ab. Der bo-Index belegt Niederdruck-metamorphe Bedingungen. K-Ar-Datierungen aus verschiedenen Decken des Südflügels ergeben für D2/M2 Werte zwischen 310 und 300 Ma. Dieses Altersspektrum entspricht Ar/Ar-Datierungen (etwa 311 bis 303 Ma; synkinematischer Biotit und Muskovit; Maluski et al.1991) aus Scherzonen am S-Rand der Axialzone, die während der Exhumierung angelegt wurden. Die K-Ar-Alter der paläozoischen Decken passen auch sehr gut zu U/Pb-Altem aus Paragneisen (308 Ma, Monazit; Gebauer et al. 1988), Graniten (308 Ma, Monazit) und migmatischen Gneisen (313 Ma; beide Krause et al. 2004) der Axialzone, die eine starke thermische Aktivität zu dieser Zeit belegen. Das dritte metamorphe Ereignis (M3) ist unter Anderem im Stephanbecken von Graissessac, nachgewiesen, das im Zuge der Extensionstektonik (D2) am ENE-Ende der Axialzone entstanden ist. Nach dem bisherigen Kenntnisstand ist diese Metamorphose statisch. Der bo-Index belegt - wie auch bei M2 - eine LP-Metamorphose. Sie wurde vermutlich durch magmatische Instrusionen hervorgerufen. M3 muss jünger sein als das U-Pb-Alter eines Tuffes im tiefen Teil der Stefan-Abfolge (c. 295 Ma). Dazu passen Rb-Sr Mineralisochronen von 292 bis 277 Ma aus zwei benachbarten Granitplutonen. Ähnliche Alter treten auch in Pegmatiten der Axialzone auf. Nicht alle der untersuchten Bereiche können eindeutig einer der drei tektono-metamorphen Hauptphasen zugeordnet werden (St. Gervais-Einheit im NE der Axialzone, östlicher Teil der Mont Peyroux-Decke). Dies liegt vielfach an einer unzureichenden strukturgeologischen Datenlage. Teilweise haben aber auch Alterationsprozesse stattgefunden, welche die K-Ar-Alter verjüngt haben, oder der regionale Metamorphosegrad ist sehr niedrig. Schließlich ist in schwach anchimetamorphen oder nur diagenetisch beeinflussten Gesteinen die bo-Index-Methode nicht anwendbar. Insgesamt bestätigen die regionalen Untersuchungen das Bild eines heißen Gneiskerns, der während seines Extensions-bedingten Aufstieges seine Hüllschichten syntektonisch aufheizt. Zusätzlich zur geodynamischen Fragestellung wurden in dieser Arbeit auch methodische Aspekte verfolgt. Der Schwerpunkt lag hierbei auf der Untersuchung der K-Na-Verteilung in den Illiten bzw. Muskoviten. Es hat sich gezeigt, dass einige Proben Paragonit und/oder K/Na-Illit rührten. Diese Minerale stören die Bestimmung der Illitkristallinität im Röntgendiffraktogramm, da sich ihre Peaks mit denen des Illit überlagern. Es wurden daher verschiedene "Peak-Fittings" durchgeführt, bei denen sich zum einen zeigte, dass der 10 A-Peak besser für das Fitting von Illit und diskretem Paragonit geeignet ist als der 5 A-Peak. Es wurde zudem festgestellt, dass es nur schwer oder gar nicht möglich ist, Illit und eine K/Na-Phase mit einer zufriedenstellenden Qualität zu fitten. da die Peakmaxima zu nahe beieinander liegen. Eine Mikrosondenanalyse (teilweise auch Mikrosonden- Mapping) der betreffenden Proben zeigte, wie unterschiedlich die K-Na-Verteilung in den Illiten im anchimetamorphen Bereich sein kann. Es wurden diskrete Mineralphasen, eine domänenartige Verteilung und auch relativ homogene Mischkristalle beobachtet.
The formation of aliphatic α-amino acids by X-ray induced carboxylation of simple amines or amination of simple carboxylic acids is not favored over the formation of other amino acids. The new carboxylic and amino groups are more or less distributed statistically over the carbon atoms of the starting material. On radiationchemical formation of aliphatic hydrocarbons over C3, therefore, an increasing amount of unusual amino acids is produced. The results are influenced by various parameters such as temperature, pH, concentration, linear energy transfer and total dosis of radiation applied. Also peptides can be formed radiationchemically. However, the formation of greater molecules by radiationchemical processes under the conditions of a primitive earth seems to have only a low probability. The reaction mechanisms of radiationchemical carboxylation and amination are discussed.
Typ-I-Diabetes, Morbus Basedow und Hashimoto-Thyreoiditis zählen zu den multifaktoriellen Autoimmunerkrankungen, bei deren Entstehung genetische, immunologische sowie Umwelt- und psychosoziale Faktoren beteiligt sind. Die immunologischen und genetischen Komponenten werden durch die HLA-Genregion dominiert. Diese ist Teil des Haupthistokompatilitäts-Systems (major histocompatibility complex, MHC) auf dem kurzen Arm von Chromosom 6 und beinhaltet die wichtigsten prädisponierenden Gene für Typ-I-Diabetes und anderer Autoimmunerkrankungen. Innerhalb dieser Genregion befindet sich die DQ-LTR3. In ersten Teil der vorliegenden Arbeit wird ein möglicher Einfluss der endogenen retroviralen LTR-Sequenzen (ERV9 LTR3), die im HLA-DQ/DR-Gen lokalisiert sind, auf Morbus Basedow untersucht. Frequenzanalysen bei Morbus Basedow und Kontrollkollektiven sowie deren möglicher Zusammenhang mit den Risiko-Haplotypen DQA1*0501, DQB1*0201 zeigen keine signifikanten Unterschiede. Ein zweiter Teil dieser Arbeit befasst sich mit dem Polymorphismus des CTLA4-Gens. Dieses auf Chromosom 2q33 liegende Gen zählt zu den „prädisponierenden Gen-Loci“ und weist drei SNPs (single nucleotide polymorphisms) auf. Es wirkt als Repressor der T-Zell-Proliferation. In dieser Arbeit wird die Substitution von Cytosin an Position 318 der Promoterregion des CTLA4-Gens durch Thymin untersucht. In der geschlechtspezifischen Verteilung des CTLA4-Promoterpolymorphismus zeigt sich kein signifikanter Unterschied. Im Rahmen einer Verteilungsanalyse konnte eine Korrelation des CTLA4 Promoterpolymorphismus und der Risikoallele DQ8, DQ2, DQA1*0501/DQA1*0301 und DQB1*0201/DQB1*0302 nicht bestätigt werden. Assoziationsstudien in Familien mit Typ-I-Diabetes, Morbus Basedow oder Hashimoto-Thyreoiditis zeigen keine direkten Korrelationen zu der Vererbung untersuchter Polymorphismen. In Familien mit einem am Morbus Basedow erkrankten Kind dagegen kann ein deutlicher Unterschied bei der parentalen Transmission des CTLA4-Promoterpolymorphismus beobachtet werden. Bei maternaler Transmission gab es keine signifikanten Unterschiede. Haplotypen mit dem Cytosin-Allel an Position 318 werden deutlich häufiger von Vätern an die Patienten vererbt. Sollte sich dies in weiteren Studien mit höherer Anzahl untersuchter Familien bestätigen, so wäre dies ein Indiz für eine parentale Prägung von prädisponierenden Allelen bezüglich Morbus Basedow. Abschließend konnte in dieser Arbeit die Substitution von Cytosin zu Thymin an Position 318 der CTLA4-Promoterregion bei Familien mit Morbus Basedow oder mit Typ-I-Diabetes nicht als ein unabhängiger Risikomarker bestätigt werden. Die unmittelbare Nachbarschaft der drei Polymorphismen lässt allerdings eine Kopplung der einzelnen Polymorphismen vermuten, was in weiteren Arbeiten näher untersucht werden sollte.
Ziel. Lokoregionäre Rezidive sind der Hauptgrund für ein Therapieversagen nach primärer multimodaler Behandlung von Plattenepithelkarzinomen der Kopf-Hals-Region (SCCHN). Wir verglichen die Effektivität und Toxizität von Cisplatin oder Cetuximab simultan zur Re-Bestrahlung (ReRT) bei inoperablen SCCHN-Rezidiven. Ein prognostischer Score sollte auf Grundlage verschiedener klinischer und pathologischer Faktoren etabliert werden.
Patienten und Methoden. 66 Patienten mit in vorbestrahlten Regionen rezidivierten SCCHN wurden von 2007 bis 2014 simultan mit Cetuximab (n=33) oder cisplatin-basierter Chemotherapie (n=33) re-bestrahlt. Die Toxizität wurde wöchentlich sowie bei jedem Nachsorgetermin erfasst. Klinische Untersuchung, Endoskopie, CT- oder MRT-Untersuchungen wurden zur Beurteilung des Therapieansprechens und der Krankheitskontrolle eingesetzt.
Ergebnisse. Nach einer mittleren Nachbeobachtungszeit von 18,3 Monaten betrug das 1-Jahres-Überleben (OS) für ReRT mit Cetuximab 44,4% und mit cisplatin-basierter Chemotherapie 45,5% (p=0.352). Die lokalen Kontollraten nach einem Jahr waren jeweils 46,4% und 54,2% (p=0.625); die Raten an Metastasenfreiheit 73,6% und 81% (p=0.842). Hämatologische Toxizität ≥ Grad 3 kam in der Cisplatin-Gruppe häufiger vor (p<0.001), dagegen trat Schmerz ≥ Grad 3 in der Cetuximab-Gruppe häufiger auf (p=0.034). Ein physiologischer Hb-Wert und ein längeres Intervall zwischen primärer RT und ReRT erwiesen sich als signifikante prognostische Faktoren für das OS (multivariat: p=0.003 und p=0.002). Die Rezidivlokalisation sowie das GTV zeigten keinen signifikanten Einfluss auf das OS in der multivariaten Analyse (p=0.160 und p=0.167). Ein auf Grundlage dieser Variablen konstruierter Prognose-Score (0 bis 4 Punkte) zeigte signifikante Überlebensunterschiede: 1-Jahres-OS für 0/1/2/3/4 Prognosepunkte: 10%, 38%, 76%, 80% und 100% (p<0.001).
Schlussfolgerung. Sowohl Cetuximab- als auch Cisplatin-basierte ReRT für SCCHN-Rezidive sind gut durchführbare und effektive Behandlungsoptionen mit vergleichbaren Ergebnissen bezüglich Tumorkontrolle und Überleben. Die akuten Nebenwirkungen könnten gering variieren. Unser Prognose-Score könnte zur Identifizierung der für ReRT geeigneten Patienten sowie zur Stratifizierung in künftigen klinischen Studien dienen.
La Critique de la vision phénoménologique est une tentative de critique de la phénoménologie, à travers la Théorie Critique et la philosophie d’Emmanuel Lévinas, qui caractérise la phénoménologie comme une science eidétique. Nous proposons donc une bref histoire du concept de l’eidos, qui est compris comme un archétype idéal depuis le Platonisme. On aborde l’opposition du matérialisme et de l’idéalisme ancrée dans la Théorie des formes de Platon, l’hylémorphisme d’Aristote, et la Théorie matérialiste des simulacres de Lucrèce. La question substantielle : «matérialisme et/ou idéalisme »nous conduit aux principes de l’individuation, au formalisme et aux concepts de la réification. La phénoménologie de Husserl est née dans le Kulturkampf qui se caractérise par le déferlement du positivisme dans l’idéalisme. Sous cet angle, la phénoménologie est un certain tour de force idéaliste contre le positivisme. La phénoménologie essaie d’intégrer les courants contemporains de la philosophie allemande, et c’est ici et non en biologie que se situe la lutte pour la vie, selon Husserl. Le problème de la vision phénoménologique, en regard de la «race» comportant des significations qui ne sont pas particulièrement biologiques, est un problème qui remonte à Aristote. Selon lui, l’usage de l’eidos est aussi synonyme des catégories de genre et d’espèce. L’eidos d’Husserl inclut la conception d’Aristote, et se présente comme un moyen possible de construire un concept métaphysique de la race en dehors de la biologie. L’eidos en tant que type, tel qu’il est constitué dans la Lebenswelt , se caractérise finalement par la transformation de l’Umwelt en Heimwelt, dans lequel l’individu est passivement formé par la tradition, l’habitus, par terre et sang–un monde de la moyenne, de la « normalité ». Nous essayons de montrer, dans le processus de ce bouleversement irrationnel de la philosophie en Allemagne, le cas particulier et tragique du devenir de la phénoménologie de Husserl entre les mains de Heidegger, qui suggère une auto-limitation de la phénoménologie à la recherche d’un sens qui vise à l’unité du Dasein . Notre but ici est simple et radical : de même que Marx a montré que la philosophie de Hegel n’est rien d’autre que la collection des catégories de la philosophie bourg eoise en déclin, Lévinas et l’École de Francfort ont montré que la philosophie de Heidegger n’est rien d’autre qu’une poursuite de la philosophie hégélienne, mais à un niveau plus abstrait et aussi plus global.
Der menschliche Körper ist permanent verschiedenen Mikroorganismen aus der Umwelt ausgesetzt. Dringen diese in den Körper ein, werden sie oder ihre Produkte vom Körper als „fremd“ erkannt und abgewehrt. Dies geschieht über zwei unterschiedliche immunologische Systeme, dem schnell und zuerst reagierenden angeborenen und einem langsamer reagierenden erworbenen Immunsystem. Vom angeborenen Immunsystem erkannt werden so genannte pathogen associated molecular pattern, zu denen auch die CpG-DNA zählt, welche als Ligand des TLR9 identifiziert wurde. CpG- und Non-CpG-ODN sind bislang hauptsächlich an Zellen des Immunsystems erforscht und bewirken dort eine Immunaktivierung und einen pro-inflammatorischen Effekt, der mit dem Ausschütten inflammatorischer Zytokine einhergeht. Es konnte jedoch gezeigt werden, dass sowohl CpG- als auch Non-CpGPTO-ODN an humanen Keratinozyten eine IL-8-Suppression bewirken. Diese IL-8-supprimierende Wirkung wird nicht über den beschriebenen Rezeptor für CpG-DNA TLR9 entfaltet, sondern vermutlich mittels direkter physikalischer Interaktion mit IL-8 selbst. Durch diese Maskierung des IL-8 kann das Chemokin im ELISA nicht mehr detektiert werden. Des Weiteren gelang im Rahmen der vorliegenden Promotionsarbeit der funktionelle Nachweis, dass auch in vivo (im Kontaktdermatitis-Mausmodell) bei topischer Applikation eine anti-inflammatorische Wirkung durch eine Non-CpG-ODN-haltige Salbe erzielt werden kann. Auf intakter Haut, welche permanent mit einer eigenen Mikroflora besiedelt und somit auch permanent mit bakterieller DNA konfrontiert ist, lösen CpG- und Non-CpG-ODN eine Immunsuppression aus, vermutlich als Schutz vor überschießenden Entzündungen der Haut. Außerdem konnte anhand konfokaler Laser-Scan Mikroskopie gezeigt werden, dass die verwendeten ODN längen- und sequenzspezifisch in Keratinozyten aufgenommen und innerhalb der Zellen transportiert werden. Hier zeigte sich, dass Sequenzen, welche bei der IL-8-Suppression nur geringe oder keine Effekte zeigen, direkt in den Nukleus oder die Nukleoli transportiert werden, wo sie vermutlich an nukleare Bestandteile gebunden oder abgebaut werden. Untersuchungen zum Penetrationsverhalten der ODN an Multilayern zeigten, dass die ODN auch hier längenabhängig in tiefere viable Schichten gelangen. Die Untersuchungen zum Penetrations- und Aufnahme-Verhalten der ODN ist für einen möglichen therapeutischen Einsatz der ODN von hohem Interesse. Im Rahmen dieser Promotionsarbeit gelang zudem erstmals der Nachweis, dass PTO-ODN in der Lage sind, die zum angeborenen Immunsystem zählenden anti-mikrobiell wirksamen Substanzen HbD2, HbD3 und Psoriasin zu induzieren. Diese werden in der Haut synthetisiert und schützen gegen eine ganze Reihe von Mikroorganismen. Anhand Promoter-Aktivitätsstudien konnte demonstriert werden, dass die verwendeten ODN eine Aktivierung von NF K B vermitteln, welche in direktem Zusammenhang mit einer HbD2-Induktion steht. Zusammenfassend lässt sich sagen, dass CpG- und Non-CpG-ODN zwar als "fremd" und potentiell gefährlich in intakter Haut erkannt werden, wodurch eine Induktion von anti-mikrobiell wirksamen Substanzen ausgelöst wird. Gleichzeitig findet jedoch eine IL-8-Suppression (in vitro), beziehungsweise eine anti-inflammatorische Wirkung (in vivo) statt, welche vermutlich vor überschießenden Immunreaktionen der Haut schützen sollen.
Bei Untersuchungen HBV-positiver Zellen konnte zunächst, anders als für HCV, eine deutlich gesteigerte Menge an TIP47 im Western Blot nachgewiesen werden. Da außerdem auch die zellulären mRNA-Spiegel von TIP47 erhöht waren, wurde in Promotorstudien der genaue Regulationsmechanismus untersucht. Für HBV sind zwei wichtige Faktoren bekannt, welche diverse zelluläre Signalkaskaden, wie z. B. die c-Raf/MAP-Kinase-Kaskade, modulieren, die PreS2-Aktivatordomäne des LHBsAg und das HBx-Protein [360]. Diese regulieren via c-Raf die Expression der unterschiedlichsten Gene. Nach eingehenden Analysen lässt sich dazu auch TIP47 zählen, dessen Expression durch HBx und LHBs gesteigert werden kann. Außerdem konnte in CLSM-Analysen eine partielle Colokalisation von LHBs und TIP47 beobachtet werden. Durch Modulation der TIP47-Expression in HBV-positiven Zellen konnte anschließend die Relevanz für die Virus-Sekretion untersucht werden. Durch gezielten knockdown von TIP47 durch spezifische siRNAs wurde die Freisetzung von viralen Partikeln gestört, wohingegen die Menge an freigesetzten subviralen Partikeln erhöht war. Die Überexpression von TIP47 hingegen konnte die Virus-Sekretion steigern, während das Niveau der subviralen Partikel nahezu gleich blieb. Des Weiteren konnte auch für HBV die Rab9-Bindung an TIP47 als essentielle Funktion Charakterisiert werden, da eine Inhibition dieser Interaktion eine Hemmung der Sekretion viraler Partikel zur Folge hatte. Auch hier konnte kein Einfluss auf die subviralen Partikel beobachtet werden. In Studien wurde a-Taxilin als neuer Bindungspartner von Proteinen der Syntaxin-Familie entdeckt. Es spielt daher eine wichtige Rolle im intrazellulären Vesikeltransport. Vor allem die Interaktion mit Syntaxin-4 ist gut untersucht [132]. Es wird vermutet, dass a-Taxilin durch die Bindung an freies Syntaxin-4 die v-SNARE-Bildung verhindert und so einen inhibitorischen Effekt auf den vesikulären Transport ausübt. Des Weiteren konnten Untersuchungen beim Hepatitis-B-Virus demonstrieren, dass die Expression von a-Taxilin durch die Virus-Replikation drastisch erhöht ist und die Sekretion der subviralen Partikel, welche mittels Vesikeln aus der Zelle transportiert werden, negativ beeinflusst. Andererseits interagiert a-Taxilin mit dem großen viralen Oberflächenprotein LHBs und dient so als Adapter zwischen LHBs und tsg101 beim ESCRT-vermittelten Export des Virus via MVBs - einem Zusammenschluss aus vielen späten Endosomen [126].Anders als für HBV, welches aktiv die Menge an intrazellulärem a-Taxilin erhöht, konnte in früheren RNA-Expressionsexperimenten mit transgenen Mäusen, welche Leberspezifisch das regulatorische HCV-Protein NS5A produzieren, eine deutlich verminderte Expression von a-Taxilin beobachtet werden [140]. Durch Analysen von Leberzelllysaten im Western Blot konnte dieser Effekt auch auf Proteinebene bestätigt werden. Dieanschließende Analyse HCV-replizierender Zellen in vitro ergab ebenfalls eine verminderte a-Taxilin-Expression und in der Folge eine reduzierte Proteinmenge. Weiterhin konnte diese Arbeit klären, dass HCV via NS5A den a-Taxilin-Promotor negativ beeinflusst und dafür den bereits für NS5A beschriebenen Mechanismus der c-Raf-Modulation nutzt [234]. Darüber hinaus wird a-Taxilin durch HCV destabilisiert, da in HCV-replizierenden Zellen die Proteinhalbwertszeit von a-Taxilin in etwa halbiert war. Der genaue Mechanismus hierfür muss jedoch noch genauer untersucht werden. Es kann aber aufgrund von anderen aktuellen Studien davon ausgegangen werden, dass a-Taxilin höchstwahrscheinlich durch HCV-Strukturproteine abgefangen wird, welche nicht am Aufbau neuer Virionen beteiligt sind. Diese werden dann, zusammen mit dem gebundenen a-Taxilin, im autophagosomalen Kompartiment recycelt. Gestützt wird diese Hypothese durch die Beobachtungen in CLSM-Analysen, dass die HCV- Strukturproteine E1, E2 und Core partiell mit a-Taxilin colokalisieren und auch durch Co-Immunpräzipitationen sowie yeast-2-hybrid-Analysen eine direkte Interaktion nachgewiesen werden konnte. Dabei konnten vor allem für das Core-Protein zwei unterschiedliche Fraktionen nachgewiesen werden, von denen nur die zytoplasmatisch lokalisierte Fraktion mit a-Taxilin colokalisierte, nicht aber mit dem an den lipid droplets gebundenen Core. Neben der Untersuchung der funktionellen Zusammenhänge wurde außerdem die Relevanz von a-Taxilin für den HCV-Lebenszyklus charakterisiert. Dabei wurde die Expression von a-Taxilin moduliert und der Einfluss auf die Freisetzung infektiöser HCV-Partikel untersucht. Durch die Überexpression von a-Taxilin konnte die Sekretion von Virionen verhindert werden, wohingegen die weitere Reduktion der a-Taxilin-Menge mittels spezifischer siRNA zu einer verstärkten Virus-Freisetzung führte. In einem parallel durchgeführten Projekt konnten durch die Modulation von Syntaxin-4 genau gegenteilige Beobachtungen gemacht werden. Demnach verstärkte eine Überexpression von Syntaxin-4 die HCV-Sekretion, während der knockdown zur Inhibition des Prozesses führte. Abschließend lässt sich festhalten, dass im Rahmen dieser Arbeit zwei zelluläre Proteine in Bezug auf die Morphogenese und Sekretion von HBV und HCV näher Charakterisiert wurden, denen zuvor für das jeweils andere Virus eine entscheidende Rolle im viralen Lebenszyklus zugeordnet werden konnte. TIP47 wurde somit als positiver Regulator für die HBV-Sekretion identifiziert, auch wenn die genaue funktionelle Relevanz bzw. der Funktionsmechanismus bisher noch nicht eindeutig geklärt werden konnte. So liegt jedoch der Schluss nahe, dass es nur die Freisetzung der viralen Partikel via MVBs beeinflusst und nicht an der Sekretion der subviralen Partikel beteiligt ist. Für HCV konnte mit a-Taxilin erstmals ein viraler Restriktionsfaktor beschrieben werden, da es entscheidend die Sekretion infektiöser Viruspartikel verhindert. Im Gegenzug hat HCV, durch die Deregulation des Promotors und durch das Abfangen von a-Taxilin, Mechanismen entwickelt, welche diesem restriktiven Effekt entgegen wirken.
Mikrozensus online
(2010)
Diese Arbeit untersucht, unter welchen Voraussetzungen Online-Befragungen effizient in die Datenerhebung des Mikrozensus zu implementieren sind. Zu konstatieren ist folgende Ausgangssituation: Seit nun mehr zehn Jahren gehören Online-Befragungen zu dem festen Repertoire der Umfrageforschung. Sowohl in der Markt- und Meinungsforschung, hier hat der Anteil von Online-Befragungen in Vergleich zu den etablierten Befragungsformen seit dem Jahre 2000 um rund 30 % zugenommen, als auch in der sozialwissenschaftlichen Forschung ist diese Form der Datenerhebung nicht mehr wegzudenken. Den großen Stellenwert, den Online-Befragungen mittlerweile in der Umfrageforschung erlangt haben, konnten sie bis dato in der amtlichen Statistik nicht erreichen. Zwar etablierten sich Online-Erhebungen auch hier im Rahmen des angestrebten Bürokratieabbaus, dies aber nur im Bereich der Unternehmensstatistiken. Einzig den Unternehmen stehen mit den beiden Internetportalen IDEV (Internet Datenerhebung im Verbund) und eSTATISTIK.core gegenwärtig zwei innovative Online-Meldeverfahren zur Verfügung, die im Zuge des angestrebten Bürokratieabbaus zur Entlastung der Unternehmen von ihren Aufgaben im Rahmen der amtlichen Statistik beitragen. Im Bereich der amtlichen Bevölkerungsstatistik findet diese Innovation ganz im Gegensatz zu der übrigen sozial-wissenschaftlichen Forschung wenig Anklang. Gleichwohl sind nicht nur Unternehmen, sondern auch Bürger durch die verpflichtende Teilnahme an amtlichen Statistiken in einem erheblichen Maße belastet. Zwar ist die Teilnahme bei den meisten bevölkerungsstatistischen Befragungen freiwilliger Natur, aber alleine der Befragungsumfang – ein Interview im Mikrozensus dauert beispielsweise für eine erwerbstätige Person ca. 30 Minuten – bedeutet für die betroffenen Haushalte einen beachtlichen Zeitaufwand der, wie diese Arbeit darlegt, durch Online-Befragungen spürbar zu vermindern ist. Will man die Anwendungsmöglichkeiten von Online-Befragungen für bevölkerungsstatistische Erhebungen wie den Mikrozensus sachgerecht beurteilen, ist zu berücksichtigen, dass Bevölkerungsbefragungen der amtlichen Statistik unter anderen Voraussetzungen stattfinden als nicht amtliche Befragungen. Zwar gelten für beide die gesetzlichen Datenschutzbestimmungen, die amtlichen Statistiken unterliegen aber überdies dem Legalitätsprinzip. Das Legalitätsprinzip, welches für jede durchzuführende Bundesstatistik ein eigenes Gesetz vorsieht, schafft nicht nur die rechtliche Grundlage für Bundesstatistiken, sondern reglementiert auch restriktive ihre Durchführung. Vor jeder Bundesstatistik steht somit ein Gesetz, dass den Befragtenkreis, den Berichtszeitraum, die Periodizität der Erhebung, die Erhebungsmethodik und insbesondere die Auskunftspflicht explizit anordnet. Es werden hiermit Rahmenbedingungen gesetzt, deren Erfüllung unabdingbar für den Einsatz von Online-Befragungen innerhalb der Mikrozensuserhebung sind. Außer den vorgefundenen gesetzlichen Rahmenbedingungen sind bei der Anwendung von Online-Befragungen auch die spezifischen Vorzüge und Probleme dieser Datenerhebungsmethodik zu bedenken, um diese substanziiert in einer Mikrozensuserhebung zum Einsatz bringen zu können. Als Vorteile von Online-Befragungen gelten gemeinhin die erweiterte Funktionalitäten in der Fragebogengestaltung. Diese reduzieren einerseits die oben beschriebene Belastung der Bürger bei einer Teilnahme an Befragungen, andererseits tragen sie zu einer nachhaltigen Steigerung der Datenintegrität bei. Ebenso ist mit Online-Befragungen durch den Wegfall von Interviewer- und Wegekosten eine augenfällig kosteneffizientere Erhebungsdurchführung möglich. Den beschriebenen Vorteilen stehen jedoch auch Schwächen, wie beispielsweise Stichprobenrepräsentativität oder Erreichbarkeit der Befragten gegenüber. Diese sind für eine effiziente Einbindung von Online-Befragungen in den Mikrozensus gleichwohl zu bedenken. Aufbauend auf einer ausführlichen Beschreibung der aktuellen Mikrozensuserhebung wird nach einer systematischen Darstellung der Vor- und Nachteile von Online-Befragungen ihre Umsetzung im Mikrozensus erörtert. Von großer Bedeutung für die Umsetzung Erhebung sind die bei der Durchführung entstehenden Kosten, die Stichprobengewinnung und deren Repräsentativität sowie im Falle des Mikrozensus die Einhaltung der Auskunftspflicht. Im Lauf der Arbeit wird gezeigt, dass Online-Befragungen als eigenständige Erhebungsmethodik angesichts der mangelnden Stichprobenrepräsentativität sowie des nicht flächendeckenden Internetzugangs der deutschen Bevölkerung nicht in der Lage sind, die im Mikrozensus etablierten Befragungsformen vollständig zu ersetzen. Ihr Einsatz als Ergänzung zu den beiden etablierten Erhebungsformen aber durchaus möglich und sinnvoll ist. Betrachtet man den Einsatz von Online-Befragungen im Mikrozensus unter ökonomischen Gesichtspunkten, so lassen sich im Hinblick auf die hohe Wiederverwertbarkeit von elektronischen Fragebögen in erheblichem Umfang Kosten bei der Erstellung von Erhebungsunterlagen einsparen. Auch lässt sich das Mahnverfahren, in das nicht auskunftsbereite Haushalte gelangen, sowohl zeitlich als auch personell rationeller gestalten. Für die Kontrolle der eingegangenen Erhebungsunterlagen ist angesichts der hohen Automatisierung von Online-Befragungen ein geringerer Arbeitsaufwand notwendig. Der ökonomische Aspekt bezieht sich nicht alleine auf die Durchführungskosten. Der Mikrozensus ist ein wichtiger nationaler Bestandteil der europäischen amtlichen Statistik. Wie die Arbeit nachweist verkürzt sich infolge der direkten Datenerfassung durch den Befragten und des geringeren Kontrollaufwands der erhobenen Daten die Zeit für die Datenaufbereitung. Damit ist eine schnellere Bereitstellung der Mikrozensusergebnisse für die Zwecke der nationalen und europäischen amtlichen Statistik möglich. Der Kosteneffizienz stehen naturgemäß in anderen Bereichen höhere Ausgaben gegenüber. So ist bei einer Einführung von Online-Befragungen mit Mehrausgaben in Rahmen der Hard- und Softwarebeschaffung zu rechnen. In Anbetracht der bereits vorhanden informationstechnologischen Ausstattung (Server, Laptops, IT-Fachkräfte) in den Statistischen Landesämter schlägt die Durchführung von Online-Befragungen mit einem geringen finanziellen Mehraufwand zu Buche. Auch ermöglichen Online-Befragungen, die bereits hohe Datenintegrität noch zu steigern. Neben den bereits in CAPI-Befragungen erprobten Verfahren wie Plausibilitätskontrollen oder der automatischen Filterführung, die fehlerhafte Dateneingaben vermeiden, lässt sich zur Sicherung der hohen Datenqualität das bereits seit Langem in der Dateneingabe verwandte Signierungsverfahren für die Erfassung von Beruf und Wirtschaftszweig verwenden. Übertragungsfehler, die infolge der manuellen Dateneingabe auftreten, sind damit weitgehend auszuschließen. Neben den beschriebenen ökonomischen Aspekten und dem der Datenintegrität ist es die Bürgernähe, welche eine Erweiterung des im Mikrozensus verwandten Methodenmixes um Online-Befragungen rechtfertigt. Durch das anspruchsvolle Frageprogramm, das im umfangreichen Selbstausfüllerbogen zu bearbeiten ist, sind die vom Mikrozensus betroffenen Haushalte durch ihre Teilnahme einer erheblichen zeitlichen Belastung ausgesetzt. Mit den erweiterten Funktionalitäten von Online-Fragebögen (z. B. automatische Filterführung und Signierungsverfahren) lässt sich die Bearbeitungszeit für die selbstausfüllenden Haushalte erheblich verringern. Dies wirkt sich nicht nur positiv auf die Datenqualität aus, sondern vermittelt auch ein Bild von der amtlichen Statistik als ein innovatives am Bürger orientierten Institution. Zusammenfassend kann festgehalten werden, dass Online-Befragungen dank der beschriebenen Vorteile eine sinnvolle Ergänzung zu den bereits etablierten Datenerhebungsverfahren im Mikrozensus bilden. Ihr Einsatz darüber hinaus auch in anderen bevölkerungsstatistischen Erhebungen sinnvoll sein kann.
Die Zigarettenalben entwickelten sich in den 1930er Jahren zu einem vitalen Instrument der Wirtschafts- und Gesellschaftskommunikation. Da sowohl die Zigarettenindustrie als auch das NS-Regime manipulativ auf soziale Gruppen einwirken wollten, war es folgerichtig, dass Wirtschaft und Politik das beliebte Massenmedium als Kommunikationsinstrument einsetzten, um von dem propagandistischen Synergieeffekt zu profitieren. In den Zigarettenbildern mit NS-Inhalten manifestiert sich die Assimilation ökonomischer und propagandistischer Interessen, die seit Beginn der Professionalisierung von Werbung und Propaganda eingesetzt hatte. Die NS-Propaganda knüpfte bei der strategischen und operativen Planung an die Forschung der Weimarer Zeit an, die sich mit den sozialpsychologischen Grundlagen der Propaganda, Massenkommunikation und Werbewirkung sowie der Propaganda der Entente während des Ersten Weltkrieges auseinandergesetzt hatte.
Die kommunikationspolitische Allianz zwischen Politik und Wirtschaft beruhte nicht auf gesellschaftspolitischer Konformität, sondern auf einem vielschichtigen, beidseitigen Abhängigkeitsverhältnis. Die Beteiligung der Zigarettenindustrie an der NS-Propaganda war bis auf wenige Ausnahmen kein Ausdruck einer politischen Gesinnung, sondern rein monetären Motiven geschuldet oder wie bei Reemtsma auch unternehmenspolitische Strategie. Letztendlich profitierten die Zigarettenfabrikanten wirtschaftlich, denn sie konnten an dem gesellschaftpolitischen Interesse der Bevölkerung in Bezug auf NS-Themen im Rahmen der Sammelwerke partizipieren. Aber auch das NS-Regime profitierte wirtschaftlich. Neben den finanziellen Vorteilteilnahmen und der Multiplikation der NS-Ideologie profitierte das NS-Regime von den Zigarettenbildern auch als psychologisches Instrument der Truppenbetreuung, denn das Oberkommando der Wehrmacht erachtete die Zigarettenbilder für die Betreuung der Soldaten als unerlässlich.
Mit der Nutzung der Zigarettenalben begab sich aber auch das NS-Regime in Abhängigkeit zur Zigarettenindustrie, denn Populärkultur erfordert effektive Produktionsmittel und Distributionskanäle, die die Multiplikation der Medien gewährleisten sowie ambitionierte Unternehmer, die eine Gewinnmaximierung verfolgen. Das RMVP musste der Wirtschaft daher einen gewissen Freiraum bei der Themenwahl belassen, damit das Medium insgesamt nicht an Akzeptanz bei der Bevölkerung verlor. Angesichts der Tatsache, dass die so genannte Bekenntnisliteratur bei der Bevölkerung nie auf große Resonanz gestoßen und ab 1934 kaum noch nachgefragt war, bildeten die Zigarettenalben eine der wenigen Plattformen, auf der das NS-Regime über soziale Schichten hinweg Bevölkerung erreichen konnte. Die Einflussnahme des NS-Regimes war damit ebenso begrenzt, wie die der Unternehmen, denn beide mussten den sozialpsychologischen Bedürfnissen der Bevölkerung Rechnung tragen. Sowohl Wirtschaft als auch Politik mussten, um Akzeptanz zu finden, die Themen bedienen, die vom Rezipienten nachgefragt wurden.
Die Untersuchungen belegen, dass die Zigarettenalben, die in den 1930er Jahren publiziert wurden, nicht ausschließlich zur Verbreitung nationalsozialistischer Propaganda verwendet wurden, sondern auch von Gemeinschaften genutzt wurden, die ihre spezifischen politischen und ideologischen Interessen vertreten wollten. Neben den Vertretern des sozialistischen Lagers war es die SA, die die Zigarettenalben als Sprachrohr für ihre eigenen Interessen in Anspruch nahm. Bei der Parteiarmee war es insbesondere der sozialistisch geprägte Flügel um Ernst Röhm, der mit den Alben der sympathisierenden Firma Sturm seine Interessen vertrat, die primär darin bestanden, eine Partizipation an der Macht zu legitimieren und einzufordern. Darüber hinaus boten die Zigarettenalben der Parteiarmee die Möglichkeit, die eigene Historie in der deutschen Geschichte zu verorten und eine Traditionslinie bis zu den Freiheitskriegen zu ziehen. Damit konnte die SA mit den Sturm-Alben sowohl eine faschistische Bewegungskultur etablieren, als auch eine eigene Historie installieren. Die SA und ihre Mitglieder erhielten so einen Identifikationsraum, der ihnen die Möglichkeit bot, sich als selbstbewusste und eigenständige Organisation zu definieren.
Die Lenkungshoheit über die Medien und die nationalen Symbole erlaubte es dem NS-Regime, die kommunikationspolitischen Maßnahmen stringent nach den eigenen politischen Zielen auszurichten. Da die Autonomie des Öffentlichkeitssystems völlig aufgehoben und alle Publikationen der staatlichen Kontrolle unterlagen, mussten auch die Zigarettenfabrikanten die Inhalte der Sammelalben regimekonform ausrichten. Den-noch konnten weder Politik noch Industrie bei der Kommunikationspolitik völlig autark agieren, denn aufgrund der Wechselbeziehung zwischen Kommunikator und Rezipient waren beide Parteien gezwungen, die Bedürfnisse der Bevölkerung und ihre sozialpsychologischen Identifikationsräume zu berücksichtigen. Die Propaganda des Nationalsozialismus war daher, wie in den Kommunikationswissenschaften vielfach dargestellt, kein dispositionales Konzept, bei dem das Individuum einem Reiz-Reaktions-Schema folgt.
Die Berücksichtigung der sozialpsychologischen Bedürfnisse der Rezipienten wurde insbesondere bei der Integrationspropanda verfolgt.
In der Arbeit wurden neue Komplexbildner für die nasschemische, alkalische Reinigung von Siliciumhalbleiteroberflächen vorgestellt. Dabei handelte es sich neben kommerziell verfügbaren Verbindungen, wie beispielsweise Tiron, um den Chelatbildner Pyrinan und die vielversprechende Gruppe der 3-Hydroxypyridin-4(1H)-on-Komplexbildner („Pyridinone“). Insbesondere Letztere sind als effiziente Eisenkomplexbildner von präklinischen Untersuchungen zur Therapie von Eisenstoffwechselerkrankungen bekannt und haben deshalb großes Interesse hervorgerufen. Die Darstellung von Pyrinan und der Pyridinone war in befriedigenden bis guten Ausbeuten mit herkömmlichen Syntheseschritten möglich. Die Synthese konnte somit die im Abschnitt 1.2.1 erwähnten Anforderungen an die Komplexbildner befriedigen. Hinsichtlich der an die Strukturierung von Halbleitermaterialen geknüpften, jedoch bei der Präparation der Komplexbildner nicht realisierten Reinheitsbedingungen, wiesen diese einen teilweise erheblichen Kontaminationsgrad durch Metalle auf. Demzufolge hätten die Komplexbildner als potentielle Kontaminationsquellen bei der SC1-Reinigung von Siliciumsubstraten wirken können. Letzteres konnte jedoch im Rahmen der zehnminütigen Immersionsdauer in ¼/20 SC1 bei 70 °C weitgehend ausgeschlossen werden. Der Trend bei der nasschemischen Reinigung von Halbleitersubstraten mit immer stärker verdünnten Reinigunslösungen und reduzierten Reinigungsbadtemperaturen zu arbeiten, sollten dieses und die folgend zusammengefassten Ergebnisse noch weiter begünstigen. Es wurden Reinigungsexperimente mit Siliciumsubstraten und mit den Reinigungslösungen absichtlich zugesetzten Kontaminanten durchgeführt, um die Wirkungen der einzelnen Verbindungen besser studieren zu können. Es wurden die Metalle Al, Fe, Zn, Cu, Ni und Cr, die in der Halbleiterproduktion als gängige Kontaminanten auftreten, untersucht. Die Metalle Zn, Ni und Cu spielen in der SC1-Lösung, mit abnehmender Gewichtung in der genannten Reihenfolge, aufgrund deren Amminkomplexbildung keine nennenswerten Rolle als Oberflächenkontaminanten. Cr(III) wird in der SC1-Lösung zu Chromat oxidiert und kontaminiert aus diesem Grund die Oberfläche ebenfalls nicht. Dem gegenüber sind Al und Fe unter den gewählten Bedingungen sehr starke Oberflächenkontaminanten. Prinzipiell eignen sich fast alle untersuchten Komplexbildner, die Siliciumoberfläche vor der Kontamination durch Fe aus SC1 zu schützen. Hinsichtlich ihrer Wirksamkeit gegenüber Al und Zn wurden sie jedoch deutlich diskriminiert. Daraus schlussfolgernd ist der Einsatz mehrerer Komplexbildnern erforderlich, um die Kontaminationsgefahr der Siliciumoberfläche durch alle genannten Metalle gezielt kontrollieren und über einen gewissen Schwellenwert vermeiden zu können. Die Wirkung von Pyrinan und der Pyridinone ist vergleichbar, meistens jedoch deutlich besser, als die herkömmlicher Poly(alpha-aminomethylencarbonsäuren) (z. B. EDTA, Untersuchungen von IMEC). Sie erzielen Oberflächenkonzentrationen kritischer Kontaminanten (z. B. Fe) in der Größenordnung, die für die Prozessierung aktueller und künftiger Generationen von Bauelementen erforderlich sind. Konsequenterweise sind deshalb sowohl Pyrinan als auch die Pyridinonkomplexbildner und deren Verwendungszweck zum Patent angemeldet worden. In einem weiteren Teil der Arbeit wurde die Eignung der Komplexbildner bestimmt, hochkonzentrierte, den Halbleiterspezifikationen entsprechende Lösungen von H2O2 stabilisieren zu können. Die Stabilität wurde in Abhängigkeit von drei vorgegebenen Lagerungstemperaturen verfolgt. Sowohl die vorgestellten Verbindungen als auch die als Referenzsubstanz mituntersuchte Verbindung Dequest® 2060s konnten die an einen geeigneten Stabilisator gestellten Bedingungen nicht befriedigen. Lediglich die nicht stabilisierte Lösung von H2O2, die Referenzprobe, besaß eine, über den gesamten Beobachtungszeitraum ausreichende Stabilität. Das mangelhafte Abschneiden der vorgestellten Verbindungen als potentielle Stabilisatoren wird deren partieller bzw. vollständiger Oxidation durch H2O2 zugeordnet und ist am Beispiel von Dequest® 2060s weiter diskutiert worden. Im Zuge der Oxidation werden die intrinsischen Metallkontaminationen der Komplexbildner freigesetzt, wodurch die Kontaminanten in die Lage versetzt werden können, in das Reaktionsgeschehen katalytisch einzugreifen und die Zersetzung der Proben zu beschleunigen. Die Lagerung der Komplexbildner in konzentriertem NH3 stellt die Alternative zur Lagerung in H2O2 dar, wenn man zu einem fertig einsetzbaren, industriellen Produkt für die nasschemische Reinigung von Halbleiteroberflächen gelangen möchte, welches eine einstufige alkalische Reinigung (APM+®) ermöglicht. Hier konnten bis auf die Proben, welche Tiron als Komplexbildner enthielten, keine Besonderheiten festgestellt werden. Die mit Tiron versetzten Proben führen bereits nach sehr kurzer Lagerungsdauer zu einer intensiv rot gefärbten Lösung, die der im Alkalischen und durch Luftsauerstoff erfolgenden Oxidation von Tiron durch Luftsauerstoff zugerechnet wird. Eine, die Reinigungsexperimente ergänzende und wichtige Information, stellt die Stabilität der Komplexbildner und durch diese bedingt die der gesamten Reinigungslösung dar. Letztere wurde durch die titrimetrische Bestimmung der Konzentration von H2O2 ausgesuchter Reinigungslösungen bestimmt. Die Stabilität des Komplexbildners DEHP wurde stellvertretend für die ganze Gruppe (der einfachen Pyridinone) in verschiedenen, in der Halbleiterfertigung üblichen, alkalischen, H2O2 enthaltenden Reinigungslösungen untersucht. Die Stabilitätsbestimmungen von DEHP, ausgedrückt in Form dessen Halbwertszeit der Zersetzung in den Reinigungslösungen, wurden mit Hilfe der UV/Vis-Spektralphotometrie durchgeführt. Im Zuge der Stabilitätsbestimmungen wurde festgestellt, dass der Komplexbildner DEHP die Reinigungslösungen zwischen drei (im Fall von 1,65/1/5 TPM) bis vier (im Fall von ¼/20 SC1 und von 1,65/1/5 NC) Halbwertszeiten zu stabilisieren vermag. Darüber hinaus wurde festgestellt, dass DEHP die niedrigste Halbwertszeit in Reinigungslösungen mit TMAH als Base und die höchste in solchen mit Cholin besitzt. Die in den ¼/20-SC1-Lösungen, also mit NH3 als Base, nimmt die mittlere Stellung der drei untersuchten Typen von Reinigungslösungen ein. Diese Abstufung der Stabilitäten wird einerseits dem individuellen komplexierenden Potential der einzelnen Basen als auch der von Cholin vermuteten Rolle, in der Reinigungslösung als Opferreduktionsmittel zu wirken und damit die Lebensdauer (Halbwertszeit) des Komplexbildners zu fördern, zugeordnet. Die UV/Vis-Spektralphotometrie hat sich darüber hinaus bei den Untersuchungen als einfach handhabbares und möglicherweise auch leicht automatisierbares Quantifizierungsverfahren zur Implementierung in bereits bestehende Reinigungsanlagen erwiesen.
Ziel dieser retrospektiven Studie war es, bei Patienten mit peripherer arterieller Verschlusskrankheit die Langzeitergebnisse nach PTA und anschließendem Stenting der Arteria femoralis superficialis (AFS) mit Nitinolstents zu untersuchen und die Offenheitsrate mit derer von Stahlstents zu vergleichen. Ausgewertet wurden die Krankenakten von 128 Patienten (mittleres Alter: 66 Jahre; Intervall 45 – 89 Jahre; 88 Männer und 40 Frauen), die sich im Zeitraum von März 1999 bis Dezember 2002 einer PTA mit anschließender Stentimplantation der Arteria femoralis superficialis unterzogen. Insgesamt wurden 144 Beine mit 145 Stahlstents und 110 Nitinolstents behandelt. 14 Patienten (9,7%) befanden sich zum Zeitpunkt der Intervention im Stadium IIa nach Fontaine, 111 (77,1%) im Stadium IIb, 6 (4,2%) im Stadium III und 13 (9,0%) im Stadium IV. Bei den Läsionen handelte es sich um 93 Okklusionen (64,6%) und 51 Stenosen (35,4%). Die mittlere Dauer des Follow-up betrug 446 Tage (Intervall: 0 – 1612 Tage). Die Kontrolluntersuchungen, bestehend aus Gehstrecken- und ABI-Bestimmung sowie der duplexsonographischen Darstellung des behandelten Gefäßabschnittes erfolgten während des stationären Aufenthaltes, nach 1, 3, 6 und 12 Monaten sowie anschließend im Jahresabstand. Weitere Kontrollen ergaben sich aus der klinischen Situation. Die technische Erfolgsrate betrug in der Nitinolgruppe 98,5%, in der Gruppe der mit Stahlstent versorgten Läsionen 98,7%. Der ABI stieg von durchschnittlich 0,57 auf 0,84 bei den Nitinolstents und von durchschnittlich 0,56 auf 0,78 bei den Stahlstents. In der Nitinolgruppe ergaben sich 21 Komplikationen (31,8%), in der Stahlgruppe 26 (33,3%), darunter eine Amputation. Die primären Offenheitsraten nach 6, 12, 24 und 36 Monaten lagen bei 92%, 72%, 58% und 52% nach Implantation von Nitinolstents gegenüber 78%, 61%, 51% und 49% nach Implantation von Stahlstents. Die sekundären Offenheitsraten betrugen 100%, 98%, 91% und 88% bzw. 100%, 94%, 91% und 88%. Aufgrund dieser Ergebnisse verspricht der Einsatz von Nitinolstents nach perkutaner transluminaler Angioplastie im Bereich der Arteria femoralis superficialis eine nur geringe Verbesserung der Langzeitergebnisse gegenüber den Stahlstents. Ausgezeichnet durch einen hohen technischen und klinischen Erfolg stellt die Implantation von Nitinolstents dennoch eine komplikationsarme Alternative zur gefäßchirurgischen Therapie dar.
Die menschliche Kommunikation von Angesicht zu Angesicht findet hauptsächlich auf audiovisueller Ebene statt. Normalerweise liefert der Gesprächspartner sowohl visuelle als auch auditorische Information. Es ist einfacher jemanden zu verstehen, wenn ein visueller Eingang vorliegt, weil visuelle Signale wie Mund- oder Zungenbewegungen komplementäre Informationen zum auditorischen Eingang liefern. In dieser Studie wurden die Hypothesen aufgestellt, dass (I) sowohl die Spracherkennung als auch die Stimmenerkennung bei fehlendem visuellem Eingang durch Zugriff auf visuelle Sprecher-spezifische Informationen optimiert werden kann und, dass (11) diese Optimierung auf Gehirnarealen für die visuelle Gesichtsverarbeitung beruht. Diesen Hypothesen wurde mit Hilfe von Verhaltenstests und der funktionellen Bildgebung in zwei Gruppen nachgegangen: Probanden mit einer mangelnden Fähigkeit, Gesichter zu erkennen (Prosopagnosie), und entsprechende Kontrollprobanden. Die Ergebnisse zeigten, dass das Beobachten einer bestimmten Person beim Reden für 2 min die darauffolgende rein auditorische Spracherkennung sowie die Stimmenerkennung verbessert. Bei beiden Gruppen, sowohl bei den Prosopagnostikern als auch bei den Kontrollprobanden, konnten die verbesserten Verhaltensdaten beim Erkennen des Sprachinhalts auf ein Areal zurückgeführt werden, das für die Verarbeitung von Gesichtsbewegungen zuständig ist. Bessere Verhaltensdaten bei der Stimmenerkennung konnten nur bei den Kontrollprobanden nachgewiesen werden, was auf einem Areal beruht, das der Verarbeitung der Gesichtserkennung zugeordnet wird. Diese Befunde stellen gängige unisensorische Modelle der Sprachverarbeitung infrage, da hier gezeigt werden konnte, dass das Gehirn selbst bei der rein auditorischen Spracherkennung auf zuvor gelernte audiovisuelle Zusammenhänge zurückgreift um die Kommunikation zu optimieren. Das legt die Möglichkeit nahe, dass dieser Optimierung Sprecher-spezifische audiovisuelle interne Modelle zugrunde liegen, welche benutzt werden, um ein sprechendes Gesicht zu simulieren.
Die verzierten Metallschalen des 1. Jts.v.Chr. stehen bereits seit der Mitte des 19. Jhs. im Interesse von Wissenschaft und Forschung. Ausgelöst wurde dieses Interesse durch die Auffindung der Nimrud-Schalen durch Layard 1849. In ihrem 1888 erschienenen zweibändigen Werk über griechische Kunst nahmen Dumon und Champlin einige der Schalen aus Nimrud auf. Sie unterteilten die Schalen mittels ikonographischer Merkmale in drei Gruppen (1. ägyptisch, 2. assyrisch und 3. einen Sonderstil).
Gegen Ende des 19. Jhs. verlagert sich das Interesse der Forscher immer mehr auf die zyprischen Schalen. 1893 erscheint eine Abhandlung von Brunn über die auf Zypern gefundenen Schalen, von denen er annimmt, daß sie von griechischen Handwerkern mit Sitz (Werkstatt) auf Zypern hergestellt worden sind. In den darauffolgenden Jahren werden weitere Arbeiten von Hogarth (1909), Poulsen (1912), Conteneau (1931), Gjerstad (1946) und vielen anderen mehr verfaßt, die jedoch alle davon ausgehen, daß die zyprischen Schalen sowohl in zyprischen als auch in phönizischen Werkstätten hergestellt worden sind.
1974 erscheinen die Untersuchungsergebnisse Barnett’s, der die im British Museum gelagerten Nimrud-Schalen katalogisierte und untersuchte. Barnett unterteilte die Schalen in fünf Gruppen, wobei diesmal nicht nur ikonographische Merkmale im Zentrum der Arbeit standen, sondern auch kompositorische Kriterien mit berücksichtigt wurden. Neben den bereits bekannten zyprischen und phönizischen Werkstätten nimmt er weitere Produktionsstätten für Metallschalen im Iran und den aramäisch geführten Staaten an. Neuere Monographien über die verzierten Metallschalen stammen von Imai (1977) und Markoe (1985). Imai hebt besonders die „internationale“ Beeinflussung der Schalendekore hervor, indem er auf die minoisch-mykenischen, ägyptischen, phönizischen u. a. Einflüsse hinweist. Markoe hingegen behandelt in seiner Arbeit hauptsächlich die Schalen aus Griechenland (sowie Kreta und Zypern) und Italien, wobei er die Parallelen zwischen den zyprischen und italischen sowie den griechischen und den iranischen Schalen betont.
Alles in Allem können wir festhalten, daß die bisherigen Untersuchungen, mit Ausnahme derer von Barnett, aus der Sicht von klassischen Archäologen abgefaßt worden sind, deren Interesse vor allem den Schalen aus Griechenland und Italien galt. Die Schalen aus Nimrud und dem Iran hingegen werden häufig vernachlässigt bzw. nur einzelne Stücke werden als Vergleiche herangezogen.
Gerade die ikonographische Betrachtung des Schalendekors läßt altorientalische (assyrische, syrische, phönizische, aramäische) und ägyptische Einflüsse erkennen, die eine Untersuchung des Materials von altorientalischer Seite her als notwendig erscheinen lassen. Ziel einer solchen Arbeit sollte zum einen sein, mögliche Herstellungszentren (-regionen) zu erkennen und zum anderen, kulturelle Kontakte zwischen den unterschiedlichen Regionen festzustellen.
Die Untersuchungen der vorliegenden Arbeit stützen sich auf 141 verzierte Metallschalen, die aus regulären Grabungen aus Italien, Griechenland, Zypern, Kreta, Nimrud und Iran, sowie aus dem Kunsthandel stammen. Um einen Überblick über das zu bearbeitende Material zu bekommen, soll der Katalog am Beginn der Publikation stehen. In dem Katalog wurden alle wichtigen Daten aufgenommen. Neben den technischen und gestalterischen Merkmalen werden auch alle bisher erschienenen Publikationen aufgeführt, die sich mit den jeweiligen Schalen befassen, so daß der Leser einen Eindruck von dem bisherigen Forschungsstand bekommt, der als Grundlage für den weiteren Verlauf der Arbeit angesehen werden muß. Der Katalog weist eine geographische Sortierung auf, die sich ausschließlich an den Auffindungsorten der Schalen orientiert und die ursprüngliche regionale Herkunft des Handwerkers bzw. der Werkstatt nicht berücksichtigt.
Im Anschluß an den Katalog findet sich dann eine wissenschaftsgeschichtliche Zusammenfassung der bisher erschienenen Monographien über die verzierten Metallschalen und im Anschluß erfolgt dann eine neue Sortierung des Materials anhand motivischer und stilistischer Merkmale, die Hinweise auf die Herstellungsregion bzw. die Herkunft des Handwerkers gibt.
Des weiteren war es möglich, innerhalb dieser Herstellungsregionen einzelne Werkstättenvoneinander zu isolieren.
Im Rahmen dieser Doktorarbeit wurde der Großteil aller nuklearen Proteine annotiert und klassifiziert. Aus Literatur, Proteinsequenz- und Domänendatenbanken wurden bekannte nukleare Domänen ermittelt, ihre Grenzen unter Zuhilfenahme von Tertiärstrukturen oder Sekundärstrukturvorhersagen bestimmt und multiple Sequenzalignments erstellt. Die handgerfertigten Aligments wurden zur Anfertigung von Hidden Markov Models herangezogen und in das Domänenvorhersageprogramm Simple Modular Architecture Research Tool (Schultz et al. 1998, Schultz et al. 2000) (http://smart.embl-heidelberg.de/) implementiert. Hier sind umfassend Informationen über Literatur, phylogentische Verteilung, Anzahl beteiligter Proteine und Funktion für 164 Domänen (118 entstammen dieser Arbeit) mehr als 35000 Proteine abdeckend zusammengefasst. Aufbauend auf der vollständigen Kollektion nuklearer Proteine wurden ausgewählte nukleare und nicht-nukleare Proteine auf der Grundlage homologiebasierender Sequenzanalyseverfahren untersucht. Die Arbeit führte zur Entdeckung von vier biologisch relevanten neuen Domänen: - L27, eine neue Hetero-Dimer bildende Domäne in den Rezeptor-Targeting-Proteins Lin-2 and Lin-7 (Doerks et al. 2000) - GRAM, eine neue Domäne in Glucosyltransferasen, Myotubularinen und anderen Membran-assoziierten Proteinen (Doerks et al. 2000) - DDT, eine neue DNA-bindende Domäne in unterschiedlichen Transkriptionsfaktoren, Chromosom-assoziierten und anderen nuklearen Proteinen (Doerks et al. 2001) - BSD, eine neue putativ DNA-bindende Domäne in Transkriptionsfaktoren, Synapsen-assozierten und anderen hypothetischen Proteinen (Doerks et al. submitted) Abschliessend erfolgte die automatische Analyse von 24000 nuklearen Proteinen, aus denen 550 hypothetisch neue Domänen hervorgingen. Die intensive Aufarbeitung dieser 550 konservierten Sequenzbereiche erbrachte die Entdeckung von 28 neuen nuklearen oder teilweise nuklearen Domänen unterschiedlicher Speziesverbreitung, Funktion und biologischer Relevanz (Doerks et al. accepted).
Thema der vorliegenden Arbeit war der Austausch der retroviralen Integrase von HSRV gegen die Integrase von HTLV1. Mit diesem Austausch sollte eine Steigerung der Integrationsrate von HSRV erreicht werden, um ihn als Vektor für die Gentherapie zu optimieren. Zunächst wurde dazu die HTLV1Integrase im Austausch gegen die HSRV Integrase in HSRV eingebracht. Dieses rekombinante Plasmid war jedoch replikationsdefizient und hatte nach der Transfektion in eukaryonte Zellen keinen Virustiter. Dies führte zu der Überlegung, auch die für die Erkennung des Virus durch die Integrase wichtigen ersten 15 Nukleotide der LTREnden von HSRV an die Sequenz von HTLV1 anzugleichen. Da auch der daraus resultierende Klon keine Infektiösität aufwies, konnte die Replikationsdefizienz eventuell weitreichendere Gründe haben als eine reine Integrationsdefizienz. Ein cisElement am CTerminus der HSRVIntegrase welches zur Stabilisierung und Verpackung der RNA in Partikel wichtige Funktionen hat, wurde daher in dem Klon mit der HTLV1Integrase regeneriert. Dazu wurde eine chimäre Integrase bestehend aus dem Nterminalen und dem Mittelteil der HTLV1Integrase mit dem Cterminalen Teil der HSRV Integrase fusioniert und in das HSRV Provirus mit und ohne die HTLV1LTREnden eingebracht. Da diese Klone ebenfalls nichtinfektiös waren, sollte Expressionsanalyse der rekombinanten Plasmide zur Klärung der Ursache ihrer Replikationsdefizienz beitragen. Als Kontrollen dienten dabei ein HSRVKlon ohne Integrase, ein HSRVKlon mit wiedereingeführter HSRVIntegrase und ein Konstrukt mit den HTLV1LTREnden aber mit der HSRVIntegrase. Die Untersuchung der chimären Klone ergab, daß virale genomische RNA zumindest kurze Zeit nach der Transfektion in den Zellen vorhanden war, aber eventuell nicht in Viruspartikel verpackt wurde, da vor der HTLV1Integrase ein weiteres ca. 114 Nt langes cisElement fehlte. Dieses fehlende cisElement war möglicherweise auch die Ursache für eine gestörte GagProzessierung der Klone in 293TZellen. Da Gag Prozessierung für den Zusammenbau intakter Viruspartikel essentiell ist, konnte hier ein Grund für die Replikationsdefizienz der chimären Klone liegen. Alle weiteren viralen Proteine wurden von den chimären Klonen exprimiert und normal prozessiert. Die virale Protease war also enzymatisch aktiv. Weiterhin wurde die korrekte Aktivität der reversen Transkriptase nachgewiesen. Durch eine Kotransfektion der chimären Plasmide mit dem HTLV1GagProtein sollte das im Preintegrationskompex vorkommende GagProtein für die øTLV1 Integrase ersetzt werden. Auch dieser Versuchsansatz erwies sich als ungeeignet, die Integration bzw. Replikation der chimären Klone zu verbessern. Durch die Einklonierung eines Resistenzgens in die viralen Klone sollten Zellen mit integrierter viraler DNA gezielt selektioniert werden. Das Resistenzgen wurde in drei der viralen Konstrukte eingebracht, in wtpHSRV13, in den Klon mit den HTLV1 LTREnden und der HTLV1Integrase sowie in das virale Plasmid mit den HTLV1 LTREnden und der chimären Integrase. Nach der Einzelzellselektion der mit wt Zeocin transfizierten BHKZellen hatte von sechs Klonen nur einer einen geringen Virustiter, dieser exprimierte als einziger virale Gene. Durch Southernblotanalyse dieser Einzelzellklone konnte die Anzahl der Integrate auf fünf bis acht pro Einzelzellklon ermittelt werden. Die Einzelzellklone aus der Transfektion mit den rekombinanten Klonen besaßen keine Infektiösität. Die Expression der viralen Gene war bei den Einzelzellklonen aus der Transfektion des Klons mit den HTLV1LTR Enden und der HTLV1Integrase nachweisbar.
Das Ziel dieser Studie ist es, die Möglichkeiten und Grenzen von hochauflösenden Klimaprojektionen in orographisch beeinflussten Gebieten an den Beispielen der europäischen Alpen und des Himalajas zu prüfen. Insbesondere wird die Fragestellung untersucht, ob beobachtete regionale Muster in den höher aufgelösten Daten besser wiedergegeben werden als in den antreibenden großskaligen Daten. Dazu werden regionale Klimasimulationen des COSMO-CLM Modells und Daten von zwei statistischen Regionalisierungsmethoden mit ERA40 Reanalysen sowie Daten des globalen Atmosphäre-Ozean Modells ECHAM5/MPIOM für verschiedene Parameter des Klimasystems verglichen. Ein Vergleich mit den Reanalysen anhand täglicher Niederschlagsstatistiken ergibt, dass die COSMO-CLM Niederschlagsdaten auf der 0.5° Skala vergleichbar sind mit ERA40 Niederschlägen und mit statistisch regionalisierten ERA40 Niederschlägen. Eine zusätzliche Fehlerkorrektur der COSMO-CLM Niederschläge liefert gute Ergebnisse. Dabei sind jedoch etwa 500 Regentage notwendig, um eine robuste Fehlerabschätzung zu gewährleisten. Für das südasiatische Gebiet ist eine realistische Wiedergabe des indischen Sommermonsuns (ISM) in den Modellen von hoher Relevanz. Betrachtet man nur die Mittelwerte und zeitlichen Variabilitäten von verschiedenen Indizes des ISM, so liefert das COSMO-CLM keinen Mehrwert im Vergleich zu den antreibenden Daten. Allerdings werden die räumlichen Strukturen von Niederschlag und vertikaler Windscherung, sowie die zeitliche Korrelation der modellierten Indizes gegenüber dem ECHAM5/MPIOM Modell verbessert. Die durchgeführten COSMO-CLM Projektionen für die Jahre 1960 bis 2100 zeigen negative Trends des ISM für die SRES Szenarien A2, A1B und B1. Die negativsten Trends sind dabei im Szenario A2 zu finden, gefolgt von A1B und B1. Fast keine Trends zeigen sich im commitment Szenario. Trotz großen zeitlichen Variabilitäten sind die Abnahmen in Niederschlagsmengen, ausgehender langwelliger Strahlung und Windscherung statistisch signifikant in großen Regionen des Simulationsgebietes. Für Nordwest-Indien weisen die Projektionen teilweise einen Rückgang der Monsunniederschläge von über 70% in 100 Jahren auf. Der Rückgang der Windscherung ist hauptsächlich auf Veränderungen in der oberen Troposphäre bei 200 hPa zurück zu führen. Während in den COSMO-CLM Projektionen alle Indizes des ISM synchrone Negativtrends aufweisen, sind die Trends für den Monsunregen über Indien im globalen ECHAM5/MPIOM Model positiv. Gemäß den Definitionen der verschiedenen Indizes, sind jedoch synchrone Trends wahrscheinlicher und das COSMO-CLM liefert zu den globalen ISM Projektionen ebenfalls einen Mehrwert. Insgesamt zeigen die Ergebnisse dieser Studie, dass das COSMO-CLM wertvolle regionale Zusatzinformationen zu den globalen Modellen in den beiden untersuchten Regionen liefert. Für die Einzugsgebiete der oberen Donau und des oberen Brahmaputra liefern die COSMO-CLM Projektionen einen signifikanten Anstieg der Temperatur für alle Jahreszeiten der Jahre 1960 bis 2100. Die Werte sind generell höher im Brahmaputragebiet, mit den größten Trends in der Region des tibetanischen Plateaus. Im Niederschlag zeigen die saisonalen Anteile ebenfalls klare Trends, beispielsweise eine Zunahme des Frühjahrsniederschlags im Einzugsgebiet der oberen Donau. Die größten Trends werden wiederum in der Region des tibetanischen Plateaus projiziert mit einem Anstieg von bis zu 50% in der Länge der Trockenperioden zwischen Juni und September und einem gleichzeitigen Anstieg von etwa 10% für die maximale Niederschlagsmenge an fünf aufeinander folgenden Tagen. Für die Region Assam in Indien, zeigen die Projektionen zudem eine Zunahme von 25% in der Anzahl der aufeinander folgenden trockenen Tage während der Monsunzeit
Acne inversa ist eine chronisch entzündliche Hauterkrankung der Terminalhaarfollikel und Talgdrüsen, die sich zu schmerzhaften tiefsitzenden Knoten entwickelt, welche in Abszessen und Fistelgängen resultieren können und mit starken Schmerzen und psychischen Belastungen für die Patienten einhergehen. Die Pathophysiologie der AI ist bisher nur unzureichend verstanden. Es wird angenommen, dass die IL-23-TH17-IL-17-Achse eine wichtige Rolle in der Pathogenese der AI spielt. Neben der Hyperkeratose im Bereich des Terminalhaarfollikels scheinen die entzündlichen Infiltrate im Bereich der Epidermis eine psoriasiforme Hyperplasie zu induzieren. In vorangegangenen Arbeiten konnte gezeigt werden, dass der mTORC1-Signalweg (mammalian target of rapamycin complex 1), welcher durch Zytokine wie IL-1β, TNF-α und IL-17A aktiviert wird, in der Pathogenese der Psoriasis vulgaris von großer Bedeutung ist. Aufgrund immunologischer und histologischer Gemeinsamkeiten beider Erkrankungen ist es denkbar, dass der mTORC1-Signalweg ebenfalls bei der Pathogenese und Progression der AI eine Rolle spielt, was im Rahmen dieser Arbeit untersucht werden sollte. Immunhistochemische Färbungen für phosphorylierte Komponenten des Signalwegs zeigten eine stark erhöhte mTORC1-Aktivität in den AI-Läsionen. Diese war abhängig vom Schweregrad der AI-Läsion sogar teilweise höher als in der Psoriasis vulgaris. Die starke Aktivierung der mTORC1-Kaskade korrelierte mit Stellen, die eine aberrante Expression von Differenzierungs-, Proliferations- und Entzündungsmarkern aufwiesen. Auffällig war ebenfalls die starke STAT3-Aktivierung, welche durch erhöhte Phosphorylierung an Y705 und S727 gemessen werden konnte und auch auf eine Beteiligung dieses Signalwegs an der Pathogenese hindeutet. Da es Hinweise auf Überschneidungen zwischen dem mTORC1-Signalweg und der ebenfalls in der Psoriasispathogenese involvierten STAT3- Kaskade gibt, wurde dieser Zusammenhang untersucht. Es konnte in vitro gezeigt werden, dass psoriasis-typische Zytokine eine Phosphorylierung von STAT3 an S727 induzieren, was durch die Behandlung mit dem mTOR-Inhibitor Rapamycin gehemmt werden konnte.
Zusammenfassend deuten die hier gewonnenen Daten darauf hin, dass der PI3-K/Akt/mTOR-Signalweg, aber auch die JAK/STAT3-Kaskade eine entscheidende Rolle in der Acne inversa-Pathogenese spielen und damit potenziell neue Angriffspunkte für die Entwicklung neuer Therapien darstellen können. Damit geben die gezeigten Ergebnisse vielversprechende Ansatzpunkte um pharmakologisch gut etablierte Medikamente wie z.B. Sirolimus oder Tofacitinib als neue Ansätze für die AI-Therapie weiter zu untersuchen.
Simultaneingriffe in der Gefäßchirurgie : eine therapeutische Alternative zum zweizeitigen Eingriff?
(2002)
Immer wieder werden dem Chirurgen Patienten mit operationswürdigen Mehrfacherkrankungen begegnen. Die Operationsreihenfolge richtet sich zumeist nach dem Schweregrad der Erkrankungen. Zeitversetzte Einzeleingriffe werden präferiert. Das simultanoperative Vorgehen stellt insbesondere in der Gefäßchirurgie seltenst eine therapeutische Option dar. Aus Angst vor einem erhöhten Risiko für eine Wundheilungsstörung oder eine Protheseninfektion wird die Kombination einer gefäßchirurgischen Rekonstruktion und eines nicht gefäßchirurgischen Eingriffes vehement abgelehnt. Bereits 1987 haben Carstensen und Schreiber aufgefordert „in wissenschaftlichen Erhebungen und Untersuchungen den Risikoumfang zu erfassen, der bei simultan oder präventiv ausgeführten Operationen entsteht“ [37]. Diese Aufforderung erweist sich komplexer als sie auf den ersten Blick erscheint: der Entscheidungsprozeß für oder gegen eine simultane Operation lässt sich in Anbetracht der vielfältigen Komplikationen nicht auf den Vergleich der Komplikationshäufigkeit für eine Wundheilungsstörung und eine Protheseninfektion reduzieren, vielförmige Kombinationsvarianten gefäßchirurgischer Simultaneineingriffe verursachen ein inhomogenes Patientenkollektiv und die Vergleichbarkeit von Komplikationshäufigkeiten bei Simultaneingriffen zu zeitversetzten Einzeleingriffen ist nicht geklärt Für die vorliegende Untersuchung wurde jeder gefäßchirurgische Simultaneingriff retrospektiv erfasst, der zwischen dem 01. Januar 1992 und 31. Oktober 1997 erfolgte. Eine umfangreiche Dokumentation jeglicher Komplikation im postoperativen Verlauf ermöglichte eine umfassende Risikobeurteilung. Aortenchirurgische Simultaneingriffe kombiniert mit einem intraabdominellen Zweitbefund stellten das größte Teilkollektiv auch in dieser Untersuchung dar, so dass der postoperative Verlauf der aortenchirurgischen Simultaneingriffe zusätzlich an dem postoperativen Verlauf einer Kontrollgruppe aortenchirurgischer Einzeleingriffe gemessen wurde. Die Kontrollgruppe unterschied sich in ihrer Zusammensetzung nicht von den aortenchirurgischen Simultaneingriffen. Die Häufigkeit eines komplikationsbehafteten Verlaufes war in der Gruppe der gefäßchirurgischen Simultaneingriffe im Vergleich zu den publizierten Ergebnissen über gefäßchirurgische Einzeleingriffe nicht erhöht. Es bestand kein signifikanter Unterschied zwischen den aortenchirurgischen Simultaneingriffen und den aortenchirurgischen Einzeleingriffen im postoperativen Verlauf. Von allen Komplikationen, die dokumentiert wurden, bestand für die Nachblutung im Operationsgebiet des nicht gefäßchirurgischen Eingriffes, für die inguinale Fistel und für das Abdomen apertum im gesamten Kollektiv der gefäßchirurgischen Simultaneingriffe ein erhöhtes Risiko, ohne dass sich ein signifikanter Zusammenhang im Teilkollektiv der aortenchirurgischen Simultaneingriffe und der Kontrollgruppe nachweisen ließ. Hieraus wurde die Empfehlung abgeleitet, dass der Chirurg über das sonstige Maß hinaus intraoperativ auf ein sorgfältiges Vorgehen achten sollte. Das Auftreten von Wundheilungsstörungen und Protheseninfektion wurde durch ein simultanoperatives Vorgehen nicht gefördert. Für einige Komplikationen, wie zum Beispiel der peripheren Nervenschädigungen, war eine Aussage zum Risikopotential nicht vertretbar, weil Richtlinien zur Berechnung von Komplikationsraten bei Simultaneingriffen fehlen. Konträr zu anderen Publikationen war in der eigenen Untersuchung die Mortalität beim gefäßchirurgischen Simultaneingriff gegenüber der Mortalität des gefäßchirurgischen Einzeleingriffes erhöht, ohne dass ein Zusammenhang zum simultanoperativen Vorgehen nachweisbar war. Der perioperative Verlauf von gefäßchirurgischen Simultaneingriffen wurde häufiger durch Komplikationen erschwert, wenn der Patient älter als 70 Jahre war oder eine ASA-Klassifikation von Stufe IV oder höher vorlag. Ab dem 70. Lebensjahr wurden signifikant mehr letale Verläufe beobachtet. Für die ASA-Stufe IV und V bestand eine auffällige Abweichung der standardisierten Residuen, so dass ein Zusammenhang für den letalen Verlauf anzunehmen war. Aortenchirurgische Simultaneingriffe dauerten signifikant länger als aortenchirurgische Einzeleingriffe, ohne dass ein Zusammenhang zwischen dem postoperativen Verlauf und der Operationsdauer aufgezeigt wurde. Das Risiko für eine Komplikation war bei den nicht geplanten Simultaneingriffen höher als bei den geplanten Simultaneingriffen. Die Entscheidung für oder gegen einen Simultaneingriff ist ein multifaktorieller Prozess. Gefäßchirurgische Simultaneingriffe sollten primär bei Patienten indiziert werden, die jünger als 70 Jahre und in eine ASA-Stufe bis höchstens Klasse III eingestuft sind. Der Simultaneingriff soll geplant erfolgen und lediglich, wenn bei einem intraoperativ entdeckten Zweitbefund eine absolute Indikation vorliegt, ist der gefäßchirurgische Simultaneingriff vertretbar. Die retrospektive Untersuchung der eigenen Simultaneingriffe und die Literaturanalyse zeigte auf, dass das simultane Vorgehen eine therapeutische Alternative für Patienten mit einem Aortenaneurysma und einem intraabdominellen Zweitbefund, mit einer Stenose der A. carotis interna und der A. subclavia, mit einer Erweiterung der Aorta abdominalis und Stenose der A. renalis sowie mit arteriosklerotischen Veränderungen an unterschiedlichen Extremitätenarterien darstellt. Beim zeitgleichen Vorliegen eines abdominellen Aortenaneurysmas und einer Stenose der A. carotis interna soll zuerst die Desobliteration der A. carotis interna und im zeitlichen Intervall der aortenchirurgische Eingriff erfolgen. Der Kombinationseingriff an der A. carotis interna und einem Zweitorgan, speziell an der Schilddrüse, soll restriktiv wegen der Gefahr einer Nachblutung im Operationsgebiet des nicht gefäßchirurgischen Zweiteingriffes indiziert werden. Das simultane Vorgehen beim Vorliegen einer peripheren Arteriosklerose ist, bis auf die kombinierte Rekonstruktion zweier Extremitätenarterien, zu vermeiden. Der Simultaneingriff in der Gefäßchirurgie stellt für ein selektiertes Patientengut eine therapeutische Alternative dar. Abschließend wird betont, dass sich das Risiko, mit der ein unerwünschtes Ereignis in einer Gesamtmenge auftreten kann, durch eine Wahrscheinlichkeit quantifizieren lässt. Die Risikoeinschätzung ist jedoch nur eine Entscheidungshilfe. Die Entscheidung selbst muss individuell am Patienten getroffen werden.
Um eine kardiale Ursache für den Zustand klinisch instabiler Patienten auszuschließen, gilt der Einsatz einer fokussierten Echokardiographie als aussagekräftige orientierende Untersuchungsmaßnahme. Auch während einer kardiopulmonalen Reanimation kann eine ALS-konforme Echokardiographie eingesetzt werden. Dafür benötigt der Notfallmediziner ein standardisiertes Training, welches spezielle Schwerpunkte beinhaltet. Dabei muss neben der Vermittlung von theoretischen Kenntnissen und der praktischen Anwendung der Echokardiographie auch besonders auf das Trainieren von visuell perzeptiven Fähigkeiten geachtet werden, da ein schnelles Erkennen von spezifischen Diagnosen elementar für die Prognose klinisch instabiler Patienten ist. Diese Arbeit befasst sich mit der Entwicklung und Anwendung eines computerbasierten Testverfahrens, der dem Erfassen des Lernerfolges im Rahmen des Stufe-1-Training für Notfallechokardiographie. Dabei wird vor allem in Hinblick auf die schnelle Identifikation von Blickdiagnosen geachtet, indem eine Zeitmessung erfolgte. Bei der Entwicklung wurden, basierend auf die aktuellen Empfehlungen für den Einsatz von Echokardiographie in der Intensiv-und Notfallmedizin, die 10 wichtigsten Echokardiographiediagnosen als Filmsequenzen dargestellt. Dazu gehören Befunde wie die PEA, der Perikarderguss, Asystolie, reduzierte Pumpfunktion und Rechtsherzbelastung. Zu jeder Filmsequenz, die je nach Version 5 Sekunden oder bis zu 60 Sekunden dauern, wurde eine Freitexteingabe gefordert und eine Multiple-Choice-Aufgabe gestellt. Ergebnisse wurden im Rahmen von drei Kurskonzepten für Stufe-1-Noallechokardiographie gesammelt. Damit einhergehend wurde die Validität des Simulationstests Notfallechokardiographie bewiesen. Bei der Betrachtung der Ergebnisse zeigt sich, dass es möglich ist, mit dem Test den Wissensstand der Teilnehmer aufzuzeigen. Dabei wurde deutlich, dass Befunde wie die PEA, der Perikarderguss und die hochgradig eingeschränkte Pumpfunktion von der Mehrzahl der Teilnehmer korrekt in Freitexteingabe und Multiple-Choice-Aufgabe benannt werden konnten. Schwächen im Erkennen bestimmter Befunde, allen voran des Normalbefundes, wurden anhand der Testanwendung aufgedeckt. Somit kann der Simulationstest Notfallechokardiographie zu einer Überarbeitung der Kursinhalte beitragen. Bei einer Erfassung der Zeit, die für die Identifikation der Befunde benötigt wird, wird ersichtlich, dass definierte Diagnosen innerhalb von 10 Sekunden erkannt werden können. Vor allem der Befund der PEA wurde nach dem Kurs schnell erkannt. Andere Diagnosen, wie das normale Herz, zeigen, dass es nach einem Kursprogramm weiterhin schwierig sein kann, bestimmte Befunde innerhalb von 10 Sekunden zu stellen. Die gewonnenen Ergebnisse werden durch die erhobenen Daten bei der Anwendung des Simulationstest Notfallechokardiographie in der 5-Sekunden-Version unterstrichen. Spannend ist, dass im Rahmen eines spezialisierten Trainings kein Unterschied in den Ergebnissen festzustellen war. Es spielte dabei keine Rolle, ob die Teilnehmer die Filmsequenzen 5 Sekunden oder 60 Sekunden sehen konnten. Aus diesen Ergebnissen lässt sich der Schluss ziehen, dass nach einem achtstündigen Kurs für ALS-konforme Echokardiographie definierte Blickdiagnosen dass definierte Befunde innerhalb 5 Sekunden erkannt werden können.
Im Rahmen dieser Arbeit werden Patienten mit DCMP einer Myokardbiopsie mit histologischer und molekularbiologischer Analyse der Biopsate unterzogen. Es soll die Korrelation zwischen den histologisch-molekularbiologischen Befunden, sowie den klinischen Verläufen und echokardiographischen Befunden gezeigt werden. Die Arbeit ist Teil einer nationalen Multizenterstudie. Bei 38 Patienten mit der Diagnose DCMP bzw. Myokarditis wurde das Myokardbiopsat aus der linken Kammer histologisch untersucht. Dabei wurde bei den Biopsaten auch der direkte Nachweis von kardiotropen Viren mittels PCR veranlasst. Bei 13 Patienten (34%) konnte eine Viruspersistenz nachgewiesen werden. Diese Patienten boten histologisch das Bild einer DCMP in verschiedenen Stadien. Bei den nachgewiesenen Viren handelte es sich in neun Fällen um Parvo-Virus-B19 (69,2%), in zwei Fällen um CMV (15,4%) und jeweils in einem Fall um EBV und CVB3 (7,7%). Bei 25 Patienten lag histologisch das Bild einer DCMP bzw. Endokardfibroelastose vor. Außerdem sind alle Patienten mit einer Virusmyokarditis einem Eradikationsversuch mit hochdosierter Immunglobulin-Therapie unterzogen worden. Dadurch konnte eine Viruselimination in 11 Fällen erreicht werden. Beim Vergleich der klinischen und echokardiographischen Daten der Patienten mit und ohne Viruspersistenz kann bezüglich des klinischen Verlaufs ein Unterschied zwischen den beiden Gruppen festgestellt werden. Das Kollektiv der Patienten mit Virusnachweis zeigt im Vergleich zur Kontrollgruppe eine bessere Erholung der linksventrikulären Funktion. Damit war eine diagnostische, therapeutische und prognostische Bedeutung in unserer Kohorte sowohl für den Virusnachweis, als auch für die Therapie mit Immunglobulinen nachweisbar.
Die Entwicklung von Wirkstoffträgern für Antisense-Oligdesoxyonukleotide auf der Basis von Protamin-Nanopartikeln stellt einen interessanten Ansatz für antivirale Strategien dar. So konnte gezeigt werden, dass bereits ab einem 1,5-fachen Massenüberschuss an Protamin eine spontane Komplexbildung mit Antisense-Wirkstoffen stattfindet, die einen Größenbereich von etwa 200 nm aufweisen und durch eine Oberflächenladung von ca. + 20 mV charakterisiert sind. Aufgrund dieser physikalischen Eigenschaften besitzen diese Nanopartikel nahezu ideale Eigenschaften, die intrazelluläre Verfügbarkeit von Antisense-Wirkstoffen entscheidend zu verbessern. Eine sehr gute zelluläre Aufnahme von Protamin/Antisense-Nanopartikeln konnte entsprechend in primären humanen Makrophagen als auch in lymphozytären T-Zellen gezeigt werden. Die Anwendung dieser Wirkstoffträger in den beschriebenen Zellen erwies sich dabei als sehr gut verträglich und zeigte keine toxischen Wirkungen in insgesamt drei unterschiedlichen Testverfahren zur Bestimmung der Zelltoxizität. Darüber hinaus konnte gezeigt werden, dass Protamin/Antisense-Nanopartikel mit unmodifizierten Antisense-Oligodesoxynukleotiden ein sehr günstiges intrazelluläres Auflösungsverhalten besitzen, was zu einer kontinuierlichen Freisetzung des inkorporierten Antisense- Wirkstoffs führte. Dabei wurde deutlich, dass nach spätestens 72 Stunden ein vollständiger Zerfall des Nanopartikels stattfand und der Wirkstoff sich gleichmäßig in intrazellulären Kompartimenten verteilte. Im Gegensatz dazu stellen Protamin/Antisense-Nanopartikel mit modifizierten Phosphorothioat-Wirkstoffen ein äußerst stabiles System dar, das zu keiner merklichen intrazellulären Wirkstofffreisetzung selbst nach 72 Stunden führte. Es konnte gezeigt werden, dass Protamin/AS-ODN-Nanopartikel die Expression eines von einem lentiviralen Vektor exprimierten Reportergens konzentrationsabhängig in primären humanen Makrophagen inhibieren konnte. Die antivirale Wirksamkeit dieser Wirkstoffträger konnte auch gegen das HIV-1-spezifische Transaktivatorprotein Tat in transient transfizierten Zielzellen der HIV-1-Infektion spezifisch demonstriert werden. Hier wurde eine selektive Inhibition der Tat-vermittelten Transaktivierung von 35 % bei einer Konzentration von 2 MikroM in Jurkat-Zellen nachgewiesen. Auch in primären Makrophagen, die mit einem HIV-1-Wildtypisolat infiziert wurden, führte die Anwendung von Protamin/AS-ODN-Nanopartikeln mit spezifischen Sequenzen gegen ein HIV-1-Gen zu einer deutliche Reduktion der Virusausbreitung in der Kultur. Bei einer wiederholten Behandlung von HIV-1-infizierten Makrophagen mit Protamin/AS-ODN-Nanopartikel in einer Konzentration von 2 MikroM zeigten nur einige wenige Zellen eine Infektion mit dem Virus, während sich in unbehandelten Zellen eine komplett durchinfizierte Kultur manifestiert hatte. Entsprechend der ungünstigen Bioverfügbarkeit von AS-PTO-Wirkstoffen nach intrazellulärem Transport in Form von Protamin-Nanopartikeln konnte für diese Formulierungen keine biologische Wirkung in Zellkultursystemen nachgewiesen werden. Die Inkorporation von destabilisierenden Zusätzen in die Nanopartikelmatrix bietet hier Möglichkeiten, die intrazelluläre Dekomplexierung dieser Wirkstoffträger günstig zu beeinflussen. Als Neuentwicklung konnte ein kolloidales Trägersystem für siRNA-Wirkstoffe auf der Basis von Protamin-Nanopartikeln entwickelt werden. Es konnte gezeigt werden, dass Protaminbase als auch Protaminsulfat siRNA-Wirkstoffe ab einem 2,5-fachen Massenüberschuss komplexieren. Protamin basierte Nanopartikel für siRNA-Wirkstoffe waren durch ein sehr günstiges Zellaufnahmeverhalten und fehlende zytotoxische Wirkung in primären humanen Makrophagen gekennzeichnet. Trotz dieser idealen Ausgangsbedingungen zeigten biologische Wirksamkeitstestungen sowohl gegen das endogene Protein Lamin A/C als auch virale Hemmversuche in HIV-1- infizierten primären Makrophagen nur marginale Effekte. Eine weitere Optimierung der Nanopartikelzusammensetzung und Untersuchungen zur intrazellulären Stabilität sind nötig, um die biologische Aktivität dieser Formulierungen entscheidend zu verbessern. Oberflächenmodifizierte Nanopartikel auf der Basis von Gelatine erwiesen sich in den durchgeführten Experimente als besonders vielversprechend. Hier konnte gezeigt werden, dass ein spezifisches Targeting von T-Zellen mit CD3-Gelatine-Nanopartikel realisiert werden kann, die auf ihrer Oberfläche kovalent einen anti-CD3-Antikörper tragen, der gegen die T-Zell spezifische Zeta-Kette des T-Zell-Rezeptor-Komplexes gerichtet ist. Untersuchungen mit konfokaler Mikroskopie und Durchflusszytometrie zeigten, dass dabei die Zellaufnahme dieser Wirkstoffträger von der Expression des durch den Antikörper erkannten Zielantigens auf der Oberfläche der Zielzellen ist. In Zellen mit besonders starker Expression des CD3-Epitops wurden Gelatine-Nanopartikel mit oberflächengebundenem anti-CD3-Antikörper zu einem sehr bedeutendem Ausmaß selektiv aufgenommen. In Kompetitionsexperimenten mit freiem anti-CD3-Antikörper konnte diese Aufnahme deutlich reduziert werden, was für die selektive Bindung und Internalisierung der CD3-Gelatine- Nanopartikel über den oberflächengebundenen Antikörper schließen läßt. Durch diese Untersuchungen konnte gezeigt werden, dass CD3-Gelatine-Nanopartikel das Potential besitzen, als selektives Wirkstoffträgersystem für T-Zellen eingesetzt zu werden.
Die vorliegende Arbeit befasst sich mit den nichtlinearen Zusammenhangsstrukturen in Form von Moderator- und quadratischen Effekten, die einen aktuellen Gegenstand der Forschung darstellen. In der Arbeit wurden zunächst die theoretischen Grundlagen von Strukturgleichungsmodellen sowie die Problematik von manifesten und latenten nichtlinearen Modellen erläutert. Die komplexeren Strukturgleichungsmodelle, die neben einem Moderatorterm auch quadratische Termen enthalten, wurden besprochen und danach sowohl die Produktindikatorverfahren vorgestellt, die zur Parameterschätzung die Maximum-Likelihood-Methode verwenden, als auch die neu entwickelten verteilungsanalytischen Verfahren, nämlich LMS (Klein, 2000; Klein & Moosbrugger, 2000) und QML (Klein & Muthén, 2007) vorgestellt. Das Thema wurde zuerst aus theoretischer Perspektive analysiert und unter "Fragestellung 1" dargestellt. Bei der Analyse von Moderator- und quadratischen Termen in multiplen Regressionsmodellen kann es bei steigender Prädiktorkorrelation wegen des zunehmenden gemeinsamen Varianzanteils dieser beiden Terme zu einer Fehlspezifizierung der tatsächlich vorhandenen nichtlinearen Effekte kommen. Um eine zuverlässige Aufdeckung dieser Effekte zu ermöglichen, wurde daher in der Vergangenheit mehrfach empfohlen, grundsätzlich Moderator− und quadratische Effekte simultan zu untersuchen. Da psychologische Variablen jedoch selten messfehlerfrei erfasst werden können, erwiesen sich entsprechende Untersuchungen, die lediglich auf manifester Variablenebene durchgeführt worden waren und somit, von perfekt reliablen Messungen ausgingen, als methodisch problematisch. Zur weiterführenden Untersuchung der simultanen Analyse nichtlinearer Effekte empfiehlt sich daher der Einsatz latenter Strukturgleichungsmodelle, die den Messfehler manifester Variablen explizit berücksichtigen. Im Anschluss daran wurden die neu entwickelten verteilungsanalytischen Verfahren, LMS und QML vorgestellt. Diese neuen Verfahren berücksichtigen erstmals explizit die multivariate nichtnormale Verteilung der Indikatorvariablen, die aus nichtlinearen Modellen resultiert. Unter "Fragestellung 2“ wurde ihre Leistungsfähigkeit im Vergleich zu LISRELML-Verfahren überprüft. Die Voraussetzungen zur Anwendung der beiden Methoden ist die Normalverteilung der Indikatoren der latenten Prädiktorvariablen. Da in der empirischen Forschung zu psychologischen oder sozialwissenschaftlichen Fragestellungen normalverteilte Variablen sehr selten sind, wurde unter "Fragestellung 3" die Frage untersucht, wie robust beide Verfahren gegenüber der Verletzung der Verteilungsvoraussetzung sind. Es wurden zahlreiche Simulationsstudien durchgeführt, anhand derer die Robustheit der verteilungsanalytischen Verfahren bei variierender Schiefe und Kurtosis der Variablen nachgewiesen werden konnte. Auch unter weiteren praxisrelevanten Bedingungen, z.B. sehr komplexen Modellen mit bis zu sechs nichtlinearen Effekten und relativ kleinen Stichproben, zeigten beide Methoden sehr gute Schätzeigenschaften. Diese Ergebnisse sind für Anwender sehr ermutigend, da sie zeigen konnten, dass für die Untersuchung von multiplen nichtlinearen Effekten unter verschiedenen simulierten Bedingungen die verteilungsanalytischen Verfahren LMS und QML sehr zuverlässig sind und eingesetzt werden können. Beide Methoden wiesen unter den realisierten Bedingungen bezüglich der Güte der Parameterschätzungen keine bedeutsamen Unterschiede auf. Beide Verfahren lieferten unabhängig von der Komplexität der untersuchten Modelle erwartungstreue Parameterschätzungen und unverzerrte Standardfehlerschätzungen. Anschließend konnte neben dem Nachweis der erweiterten Leistungsfähigkeit der verteilungsanalytischen Verfahren anhand eines empirischen Beispiels aus der Burnout-Forschung gezeigt werden, dass die Analyse von multiplen nichtlinearen Effekten eine praktische Relevanz für die Weiterentwicklung von Theorien haben kann.
Seit langem gibt es ein großes Interesse daran, den zeitlichen Ablauf von chemischen Reaktionen zu untersuchen. Ein wichtiges Instrument hierfür ist die Kurzzeitspektroskopie, die in jüngerer Vergangenheit parallel zum rasanten technischen Fortschritt mit immer kürzeren Laserpulsen bis hinein in den Femtosekunden-Bereich einen neuen Boom erlebt hat. Durch die extrem hohe Zeitauflösung ist es heutzutage möglich geworden, die Reaktionsdynamik eines Moleküls quasi in Echtzeit zu verfolgen, weil man durch die Femtosekunden-Pulse die Bewegung der Atomkerne wie mit einer schnellen Kamera beobachten kann. Mit wachsender Anzahl der Experimente gibt es gleichzeitig einen steigenden Bedarf, die Vielzahl der gemessenen und in vielen Aspekten noch unverstandenen Signale auf mikroskopischer Ebene theoretisch zu beschreiben und zu erklären. Besonders interessant dabei ist, dass dies u.a. für komplexe Systeme möglich wird, weil auf den extrem kurzen Zeitskalen auch in sehr großen Molekülen nur einige wenige Freiheitsgrade eine Rolle spielen. Thema dieser Arbeit war die überwiegend klassische Modellierung von nicht-adiabatischer Kurzzeitdynamik in molekularen Quantensystemen, deren Beschreibung über die Born-Oppenheimer-Näherung hinausgeht. Dabei wurden im Rahmen der vorliegenden Arbeit neue Methoden und Rechenverfahren entwickelt, die einerseits eine verbesserte. physikalisch intuitive Anschauung vermitteln und andererseits aufgrund geeigneter Näherungen deutlich Rechenzeit einsparen und dadurch den Zugang zu Modellen größerer Moleküle ermöglichen können. Zunächst wurde die Simulation von zeitaufgelösten Pump-Probe-Spektren mit Hilfe der Franck-Condon-Approximation durchgeführt, bei der die nukleare. Dynamik während des Laserpulses vernachlässigt wird. Diese bekannte Näherung konnte im Rahmen der Arbeit erstmals auf nichtadiabatisch gekoppelte Potentialflächen angewandt werden. Anschließend wurde für das interessierende Quantensystem mit Hilfe des Mapping-Formalismus ein klassisches Analogon eingeführt und dessen Dynamik eingehend studiert. Dies ist deshalb bemerkenswert, weil dadurch erstmals eine Anwendung von klassischen Methoden aus dem Bereich der nichtlinearen Dvnamik auf nichtadiabatische Quantensvsteme möglich wurde. Schließlich konnten klassische periodische Bahnen des Systems identifiziert werden. Dabei handelte es sich im hier betrachteten Fall nichtadiabatisch gekoppelter Potentiale um eine völlig neue Art von vibronischen periodischen Orbits, die sowohl aus einem nuklearen als auch einem elektronischen Freiheitsgrad bestehen. Dadurch konnte in einem nächsten Schritt mit Hilfe einiger weniger Orbits die Kurzzeitdynamik des Systems modelliert werden. Den Schlusspunkt dieser Untersuchungen bildete die klassische Simulation von zeitaufgelösten Pump-Probe-Spektren. Nachdem diese neue Methode mit periodischen Orbits an einem einfachen, stark idealisierten Modell erfolgreich getestet werden konnte, stellte sich jedoch schnell heraus, dass es in mehrdimensionalen Modellen mit einer Torsionsmode zur Beschreibung von Photoisomerisierungs-Prozessen nicht mehr so leicht möglich ist, solche einfachen periodischen Bahnen zu finden, weil die Zeitskalen von nuklearer und elektronischer Bewegung in diesen Systemen sehr unterschiedlich sind. Es ist deshalb in diesem Fall sinnvoll, das Konzept periodischer Orbits dahingehend zu erweitern, die klassische Dynamik in unterschiedliche allgemeine Bewegungstypen einzuteilen, die dann zur Interpretation von quantenmechanischen Ergebnissen herangezogen werden können. Dies stellt eine neue Möglichkeit dar, die komplizierte Wellenpaketdynamik auf physikalisch intuitive Weise zu veranschaulichen. Zusammenfassend kann man sagen, dass diese Arbeit Beiträge für das Verständnis nichtadiabatischer Quantendynamik liefert: Zum einen werden Fragestellungen von prinzipiellem Interesse diskutiert, wie z.B. der klassische Limes von Quantensystemen insbesondere bei chaotischem Verhalten, zum anderen werden durch die Anwendung von Analyseverfahren der klassischen nichtlinearen Dynamik auf vibronisch gekoppelte Molekülmodelle neue Gebiete erschlossen, die ein verbessertes theoretisches Verständnis experimenteller Ergebnisse im Bereich der Kurzzeitspektroskopie ermöglichen.
Oskar Fischingers malerisches Oeuvre wurzelt theoretisch, ästhetisch und formal tief in der Kunstentwicklung des Deutschlands der zwanziger Jahre. Sein Ausdrucksvokabular, das von geometrischen bis zu amorphen Formen reicht, seine wechselnden, gleichermaßen zentral und flächenübergreifenden Bildgefüge mit reduzierten Inhalten oder reicher Formenfülle, sein Wandeln zwischen Abstraktion und Gegenständlichkeit, verhindert die Ausprägung einer einheitlichen Handschrift und damit auch einer eindeutigen chronologischen Entwicklung. Obwohl ästhetisch und formal den konstruktiven Tendenzen des Bauhaus und dessen Vertreter Kandinsky nahestehend sowie der lyrischen Abstraktion und Klee, wurde Fisichinger auch von östlichen Religionen, dem Mystizismus, der Astrologie, der Astronomie und der Musik geprägt. Dies manifestiert sich bisweilen in Form verschlüsselter Bildinhalte. Sein philosophischer Hintergrund bestärkt ihn in der Verwendung von abstrakten Formen als Träger metaphysischer Botschaften und bewahrt seine Bilder gleichzeitig vor formalistischer Strenge und Dekorativität. Trotzdem scheinen bestimmte Charakteristika in seinem Werk vorhanden: die Neigung des Ingenieurs zu regelmäßigen Formen und komplexem Detailwerk, das musikalische Gefühl für rhythmische Sequenzen, ein filmisches Anliegen für Bewegung und Tiefe, ein mystisches Gefühl für die anderen Dimensionen jenseits des Sichtbaren und Wirklichen. Fischingers grenzüberschreitendes Streben nach einer Befreiung der Malerei aus ihrer tradierten Form, welches sich in Projekten wie Motion Painting No.1 oder Stereo-Film manifestierte, entsprang dem Verlangen nach einem Kunstwerk, das mehrere Kunstgattungen in sich vereinigt, ein Gedanke, der sich zwingend aus seiner Auseinandersetzung mit den künstlerischen Betrachtungsweisen und Entwicklungen am Ende des 19. und zu Beginn des 20. Jahrhunderts ergab sowie aus seiner Beschäftigung mit synästhetischen Prozessen und der Filmarbeit. Diese Zielsetzung Fischingers zusammen mit motivischen Verwandtschaften zwischen seinen Filmen und der Malerei, die sich z.B. in der gemeinsamen Verwendung geometrischer Motive oder anderer gestalterischer Elemente wie der Aneinanderreihung von Farbbahnen (Abb. 26 – 28) zeigt, führten noch bis Anfang der siebziger Jahre zu einer Ignoranz seiner Malerei als eigenständige künstlerische Ausdrucksform. Noch 1970 wurde in einer Fischinger-Retrospektive im Long Beach Museum of Art in Kalifornien der Versuch unternommen, seine Gemälde direkt einzelnen Sequenzen seiner Filme zuzuordnen. Die Kunstkritik reagierte entsprechend abweisend auf die damalige Ausstellung. Der Journalist William Wilson schreibt „....half the time they don´t work as paintings because Fischinger evidently conceived of them as films.“ Erst einige Jahre später begannen sich Tendenzen zu einer mehrere Sparten übergreifenden Kunst durchzusetzen. Binnenkünstlerische Grenzen werden aufgehoben und Ausdehnungen in die Bereiche Video, Umraum, Objekt, Licht und Kinetik fanden statt. In diesem Zusammenhang ist Fischinger nicht nur einer der Wegbereiter der Op Art und der Holographie. Sein 1950 entwickelter Lumigraph, ein Lightshowgerät für den Hausgebrauch könnte ebenfalls als eine Vorform der Neon- und Laserkunst betrachtet werden. Trotzdem haben die Vergleiche mit den Künstlern Kandinsky, Klee und Mondrian gezeigt, dass Fischingers Malerei theoretisch, ästhetisch und formal zutiefst in der modernen Kunstentwicklung im Deutschland der zwanziger und dreißiger Jahre wurzelt. Die Betonung des Gleichgewichts von Intuition und Methode (Kap. 6.4.), die Auseinandersetzung mit den geometrischen Grundformen des Kreises, Quadrates, des Dreiecks und ihren farblichen Korrelationen (Kap. 6.4.), die Verwendung von geometrischem oder gegenständlich symbolischem Ausdrucksvokabular zur Darstellung spiritueller Inhalte (Kap. 7.3.), die Auseinandersetzung mit den synästhetischen Zusammenhängen von Farbe und Musik (Kap 7.3.) und der Assymetrie als Grundlage für das formale Gleichgewicht der Bildkräfte (Kap. 7.7.), dies sind Themen, mit denen sich Fischinger zwischen 1936 und 1967 sowohl auf der Basis von kunsttheoretischen Schriften als auch in seiner Malerei intensiv auseinandergesetzt hat. Sein Festhalten an den formal und stilistisch in den dreißiger Jahren entwickelten Gestaltungsmitteln und seine Verinnerlichung von Kunsttheorien der zwanziger Jahre könnte man zusammen mit seinem Desinteresse am internationalen Kunstgeschehen und an der angelitanischen Kunstszene als Ausdruck mangelnder geistiger Flexibilität und Anpassungsfähigkeit und damit als Akkulturationsproblem auffassen. Es könnte jedoch auch als Ausdruck einer konsequenten Umsetzung seiner künstlerischen Prinzipien verstanden werden. Die Beschreibung der Innenwelten stellt sich in diesem Zusammenhang als unabhängig von den Geschehnissen der Außenwelt und modischen Kunsttendenzen dar. Sie bedient sich eines abstrakten Zeichenvokabulars, das als universelles sprachliches Mittel keinem zeitlichen Wandel unterliegt. Die abstrakte Sprache, so wie sie Fischinger, Klee oder Kandinsky verstanden, war darüber hinaus keine Sprache der Zugehörigkeit zu einer bestimmten Gruppe oder Anschauung. So erklärt sich auch der mangelnde amerikanische Einfluss auf das malerische Werk Fischingers. Gemeinsamkeiten zwischen ihm und der kalifornischen Kunstszene der vierziger und fünfziger Jahre zeigen sich nur in dem Interesse an seriellen Strukturen und an den Entwicklungen der Monochromen und Meditativen Malerei. Wenn auch der Maler Fischinger aufgrund seines frühen Weggangs in seiner Heimat ein Unbekannter geblieben ist, so findet sein Werk in den Vereinigten Staaten zunehmende Anerkennung. In jüngster Zeit sind seine Gemälde in zahlreichen Ausstellungen vertreten, darunter 1993 in der in Washington eröffneten Wanderausstellung "Thema und Improvisation: Kandinsky und die amerikanische Avantgarde". Diese Popularität verdankt er wesentlich der Rückbesinnung auf ein bisher vernachlässigtes Kapitel amerikanischer Kunstgeschichte - der kalifornischen Malerei der vierziger Jahre. Fischinger zählt heute neben Lorser Feitelson, Helen Lundeberg, Peter Krasnow, Knud Merrild und Hans Burkhardt zu einem der wichtigsten Vertreter der südkalifornischen Malerei. Diese zeichnet sich im Vergleich zur Kunstmetropole New York jedoch mehr durch eine reiche Vielfalt stilistischer Ausprägungen und durch die Wahrung künstlerischer Individualität aus als durch avantgardistische Bestrebungen und einheitliches Stilwollen. 1992 stellte der Kurator des Washington Museum of Art anläßlich der Ausstellung "Turning the Tide" fest: "Fischinger is just now beginning to receive the attention he deserves beyond film critics and historians, recognition that ironically may have been delayed by his identification with art cinema."
Langzeitüberleben und Mortalitätsprädiktoren nach perkutanem
kathetergestütztem Aortenklappenersatz
(2022)
Ziel dieser Studie war die Evaluation von Patienten, die eine transfemorale oder eine transapikale TAVI erhalten haben, in Bezug auf ihre Mortalitätsprädiktoren und ihre Langzeit-Mortalität.
Methoden: Untersucht wurden Patienten mit einer minimalen FU-Zeit von sechs Jahren, welche im Zeitraum von 2006 – 2014 eine TAVI im Herzkatheterlabor des Universitätsklinikums in Frankfurt erhalten haben. Das Patientenkollektiv wurde basierend auf dem Zugangsweg (transfemoral oder transapikal) analysiert.
Ergebnisse: Insgesamt wurden 679 Patienten in die Studie eingeschlossen. 408 Patienten (59,82 %) bekamen eine transfemorale TAVI und 271 Patienten (39,74 %) bekamen eine transapikale TAVI. Der durchschnittliche STS-Score betrug in der transfemoralen Gruppe 4,21 ± 2,4 % und in der transapikalen Gruppe 4,19 ± 2,7 %. Die Mortalität war nach 30 Tagen (15,8 % transapikal versus 8,2 % transfemoral, p = 0,00) sowie im Langzeit-FU (79,5 % transapikal versus 68,3 % transfemoral, p = 0,00) signifikant höher in der transapikalen Gruppe. Viele postinterventionelle Komplikationen waren häufiger in der transfemoralen Gruppe. Postinterventionelle Schrittmacherimplantationen (15,7 % versus 4,1 %, p = 0,00), große und kleine vaskuläre Komplikationen (5,1 % versus 1,1 %, p = 0,01) sowie große und kleine zerebrovaskuläre Insulte (31,8 % versus 9,1 %, p = 0,00) kamen in der transfemoralen Gruppe signifikant häufiger vor. Allerdings war der transfemorale Zugangsweg mit einer besseren Überlebensrate assoziiert (Log Rank Test p = 0,01 und HR 1,33 (1,04 – 1,71), p = 0,03). Patienten mit einem hohen STS-Score (HR 1,09 (1,03 – 1,15), p = 0,00), einem vorbestehenden Diabetes Mellitus (HR 0,75 (0,58 – 0,97), p = 0,03) sowie großen Gefäßkomplikationen (HR 0,60 (0,37 – 0,99), p = 0,04) korrelieren mit einem schlechteren Langzeit-Überleben.
Zusammenfassung: Für den kathetergestützten Aortenklappenersatz weisen beide Zugangswege spezifische Risiken auf, daher sollte die individuell beste Variante für jeden Patienten ausgewählt werden.
Funktionelle Charakterisierung von Peptidliganden für das komplexe HIV-1-RNA-Verpackungssignal PSI
(2008)
Im Laufe der vergangenen Jahre hat die Identifizierung von Peptidleitstrukturen in der Wirkstoffentwicklung zunehmend an Bedeutung gewonnen. Die Phage Display Technologie ist eine Methode, welche zur Selektion von inhibitorischen Peptiden weit verbreitet ist. Prinzipiell eignet sich dieser Ansatz auch für die Suche nach neuen Leitstrukturen für die Therapie der HIV-Infektion, welche in hochspezifische und -regulierte Schritte im HIV-Replikationszyklus eingreifen sollen. Bei der Verpackung viraler RNA in neu entstehende Virionen handelt es sich um einen Prozess, welcher auf der gezielten Erkennung der dreidimensionalen Struktur der PSI-Region am 5'-Ende ungespleißter, viraler RNA durch die NCp7-Domäne des Gagp55-Vorläuferproteins basiert. Darüber hinaus partizipiert das NCp7-Protein noch an der Reversen Transkription der HIV-RNA sowie an der Integration proviraler DNA und spielt somit eine zentrale Rolle im HIV-1 Replikationszyklus. In vorangegangenen Arbeiten konnten wir mittels der Phage Display Technologie Peptidliganden für die HIV-1 PSI-RNA selektieren, welche die PSI-RNA-NCp7-Interaktion hemmten und in Folge dessen die Verpackung viraler RNA verhindern sollten. Die Bindung der identifizierten tryptophanreichen Peptide an die PSI-RNA konnte zwar zum Teil in vitro mit NCp7 kompetitiert werden, jedoch wiesen die Peptide eine relativ geringe Affinität für die PSI-RNA auf. Im Vordergrund der vorliegenden Arbeit stand nach Optimierung der Affinität eine umfassende funktionelle Charakterisierung der Peptide hinsichtlich ihrer antiviralen Aktivität in vitro. Zunächst gelang es mittels Spot-Synthese-Membranen die Affinität der PSI-RNA-bindenden Peptide um etwa das 30-fache zu verbessern. Der KD-Wert des optimierten HKWPWW-Peptids lag bei 1,1 µM für ein Teilelement der PSI-RNA, das allein über Verpackungsaktivitäten verfügt. Die folgende Analyse der Bindungseigenschaften des HKWPWW-Peptids an die PSI-RNA über NMR und Fluoreszenz-Spektroskopie offenbarte, dass das Peptid über die hydrophoben Aminosäuren an eine charakteristische Schleifenregion in der Sekundärstruktur der PSI-RNA bindet, ähnlich wie der natürliche Ligand NCp7. Gestützt auf diese Ergebnisse, wurde im Hauptteil des Projekts untersucht, ob das HKWPWW-Peptid in der Lage ist, die Verpackung viraler RNA in HI-Virionen zu hemmen. Hierfür erfolgte die Etablierung diverser Testsysteme, welche die intrazelluläre Expression des Peptids ermöglichten. Die Expression von HKWPWW in Fusion mit RFP in Pseudoviren-produzierenden Zellen über transiente Transfektion führte in der höchsten getesteten DNA-Konzentration (2,5 µg) zu einer 95%igen Reduktion des infektiösen Titers. Dieser inhibitorische Effekt war spezifisch für lentivirale Pseudoviren, da die Produktion gammaretroviraler Pseudoviren nicht durch die Anwesenheit des Peptids beeinflusst wurde. Mittels einer stabilen HKWPWW-exprimierenden T-Zelllinie gelang es nachzuweisen, dass das Peptid sogar in der Lage ist, replikationskompetentes HIV über einen Zeitraum von fünf Tagen zu hemmen. Die Synthese des HKWPWW-Peptids in Fusion mit einer Proteintransduktionsdomäne ermöglichte die direkte Behandlung von HIV-infizierten Zellen und führte zu einer verminderten Freisetzung infektiöser HI-Viren in die Zellkulturüberstände. Dabei lagen die IC50- und IC90-Werte des HKWPWW-Peptids nach zweimaliger Peptidzugabe bei 5, 7 bzw. 28,6 µM. Eine in der Literatur oftmals beschriebene Beobachtung ist, dass bei einer reinen Hemmung der HIV-Verpackung Viren entstehen, welche keine virale RNA enthalten. Das Phänomen war in Anwesenheit des HKWPWW-Peptids wenig ausgeprägt wie Korrelationen von p24-Antigen-ELISA und die Quantifizierung viraler RNA in Viruspartikeln zeigten. Diese Gegebenheit sowie das Wissen über die mannigfaltigen Funktionen des NCp7-Proteins im HIV-Replikationszyklus ließen vermuten, dass HKWPWW noch zusätzlich andere Schritte im HIV-Replikationszyklus hemmen könnte. Unterstützt wurde diese Annahme dadurch, dass HKWPWW Ähnlichkeiten zu der hydrophoben Plattform von NCp7 aufweist, welche essentiell für die Verpackung viraler RNA sowie die Reverse Transkription ist. Damit in Einklang steht, das neben einer Bindung an die PSI-RNA auch eine schwächere Interaktion des HKWPWW-Peptids mit den viralen TAR- und PBS-Strukturen nachgewiesen werden konnte. Die auch beobachtete Hemmung der frühen HIV-Replikationsschritte durch HKWPWW könnte somit mit einer möglichen Hemmung der Transkription viraler Gene, der Reversen Transkription oder Integration erklärt werden. Jedoch zeigte die elektronenmikroskopische Analyse, dass nicht nur weniger Viren in Anwesenheit des HKWPWW-Peptids entstehen, sondern dass diese zum Teil einen weniger kondensierten Kern aufweisen. Dies kann als ein Anhaltspunkt angesehen werden, dass HKWPWW tatsächlich auch auf der Ebene der RNA-Verpackung bzw. der viralen Partikelentstehung einen hemmenden Effekt ausübt. Somit resultiert die beobachtete antivirale Aktivität des HKWPWW-Peptids vermutlich aus kombinierten inhibitorischen Effekten auf mehreren Ebenen der HIV-Replikation.
Es wurden 1000 von der Polizei in und um Frankfurt am Main in der Praxis ermittelte AAK-Messwerte und die entsprechenden BAK, die im Zentrum der Rechtsmedizin der Johann Wolfgang Goethe-Universität in Frankfurt am Main bestimmt wurden, einer statistischen Auswertung unterzogen. In die Auswertung sind alle aus den Untersuchungsunterlagen entnehmbaren Parameter, wie Geburtsdatum der Probanden, Geschlecht, Datum und Uhrzeit der AA-Entnahme, AAK, Datum und Uhrzeit der Tat, zuständiges Polizeirevier, AAK-Messgerät, BAK, Datum und Uhrzeit der Blutentnahme, eingeflossen. Die statistische Auswertung hat ergeben, dass die durchschnittliche Differenz aller AAK- und BAK-Werte bei -0,02 Promille liegt, mit einer Standardabweichung von ±0,35 Promille bei einer maximalen Differenz von -1,13 Promille nach unten und +2,81 Promille nach oben. Die Standardabweichung von ±0,35 Promille wurde als Grenzwert zur Überprüfung der Korrelation der wahrscheinlichen BAK zum Zeitpunkt der AAK-Bestimmung gewählt. Trotz der großen Spanne des Grenzbereichs von 0,7 Promille wurden nur 77,9% der AAK-BAK-Paare als korrelierend ermittelt. Bei Festlegen individueller Grenzwerte, gebildet aus der minimalen bzw. der maximalen BAK zum Zeitpunkt der AAK-Bestimmung, erwiesen sich nur noch 34,7% der Wertepaare als korrelierend. Der durchschnittliche BAK-AAK-Quotient betrug 1:2181, mit einer Standardabweichung von ±1:473. Die Quotientenspanne lag zwischen 1:0 und 1:4480. Als einziger, eindeutig nachzuweisender Faktor für die Beeinflussung der AAK-Messwerte galt die tatsächliche Höhe der BAK. Je höher die Probanden-BAK war, umso größer waren die AAK-Abweichungen von der BAK. Erwähnenswert ist, dass die AAK-Messgeräte der Firma Dräger (Alcotest® 7310 und 7410), auf Redox-Halbleiter-Gassensoren aufbauend, die indirekte BAK im Durchschnitt zu hoch, während die Brennstoffzellen-Geräte LMB S-D3 der Firma LMB Laborservice GmbH die indirekte BAK im Durchschnitt zu niedrig angaben. Die Untersuchung der Wertepaare aus AAK und minimaler BAK zum Zeitpunkt der AAKBestimmung im Vergleich zu den vom Gesetzgeber vorgegebenen Promille-Stufen für ein bestimmtes Strafmaß (0,3 Promille, 0,5 Promille, 0,8 Promille, 1,1 Promille, 1,6 Promille, 2,0 Promille, 3,0 Promille) hat ergeben, dass bei dem vorliegenden Datenmaterial 203 Probanden eine zu niedrige und 239 Probanden eine zu hohe Strafe erhalten hätten, wenn die AAK als alleiniges Maß verwendet worden wäre. Diese Fehleinschätzung wäre eingetreten, weil die AAK der Probanden über bzw. unter den oben genannten Grenzwerten lag und sich ihre BAK umgekehrt unter bzw. über denselben Werten befand. Es lässt sich feststellen, dass eine Berechnung der BAK aus dem Ethanolgehalt der Atemluft nicht möglich ist, weil viele Faktoren die AAK-Messung beeinflussen, die bisher unberücksichtigt blieben und auch von modernen, hochpräzisen AAK-Messgeräten schwerlich erfasst werden können. Daher gilt die Empfehlung, die AAK-Messung nur als Vorprobe und zum Screening zu verwenden. Bei juristischen Begutachtungen sollte nur die BAK verwendet werden, weil diese als einziger Wert präzise und beweissicher ist und außerdem über den Trunkenheitszustand eindeutig informiert. Betroffene sollten auf jeden Fall auf einer BAK-Untersuchung bestehen und die AAK als Messwert in Frage stellen.
Der Cytochrom b6f Komplex vermittelt den Elektronentransport zwischen Photosystem II und Photosystem I und nimmt damit eine zentrale Rolle in der Photosynthese ein. Das im Rahmen dieser Arbeit erstellte Protokoll für die Präparation des Cytochrom b6f Komplexes aus Spinat ermöglichte eine reproduzierbare Reinigung von hochaktivem Enzym. Die spektroskopischen Daten stimmen mit den publizierten Daten für den Komplex überein. SDS-PAGE zeigte alle vier großen Untereinheiten sowie eine Bande der kleinen 4 kDa Untereinheiten. Die Präparation ist mit 450 ± 60 Elektronen pro Sekunde 10 - 15 mal aktiver als in bisherigen Veröffentlichungen für Präparationen aus Pflanzenblättern beschrieben und fast doppelt so aktiv wie die besten Präparationen aus Chlamydomonas reinhardtii. Die Zuverlässigkeit des Aktivitätstests konnte durch den Wechsel des Lösungsmittels für den Elektronendonor von Ethanol zu Dimethylsulfoxid erheblich verbessert werden. Die hohe Effizienz der Proteinreinigung und die hohe Aktivität des Komplexes stellen ideale Voraussetzungen für biophysikalische und strukturelle Studien dar. Versuche zur zweidimensionalen Kristallisation des Cytochrom b6f Komplexes erbrachten Kristalle mit verschiedenen Morphologien, die unterschiedlich gut geordnet waren. Eine Projektionsdichtekarte bis zu einer Auflösung von 20 Å von mehrschichtigen Kristallen zeigte strukturelle Übereinstimmungen, aber auch Unterschiede zu dem verwandten Komplex aus der einzelligen Alge C.reinhardtii. H -ATPase Plasmamembran H -ATPasen wandeln chemische Energie (in Form von ATP) in einen elektrochemischen Gradienten um, der als Energielieferant von sekundären Transportproteinen dient. Es ist gelungen, zweidimensionale Kristalle der heterolog exprimierten und mit einem His-tag ausgestatteten Plasmamembran H -ATPase AHA2 aus Arabidopsis thaliana zu erzeugen. Zwei verschiedene Methoden wurden dabei angewandt. Zum einen wurde das Protein wurde in Proteoliposomen rekonstituiert, und die so gewonnenen Vesikelkristalle resultierten in einer Projektionsdichtekarte mit einer Auflösung von 8 Å. In einer zweiten Methode wurde eine Technik, basierend auf dem Einsatz neu entwickelter, partiell fluorierter und funktionalisierter Lipide, angewandt. Einzelschichten dieser fluorierten Lipide auf der Oberfläche eines Tropfens erwiesen sich auch in Anwesenheit von Detergenz als stabil. Die funktionalisierte Ni2 -NTA-Kopfgruppe der fluorierten Lipide ermöglichte eine Bindung des Proteins über den His-tag. Nach Detergenzentzug bildeten sich in einer Lipiddoppelmembran eingebettete 2D-Kristalle mit einem Durchmesser von bis zu 10 (m, die für die Erstellung einer Projektionsdichtekarte bis 9 Å genutzt wurden. Die beiden elektronenkristallographisch erstellten Projektionskarten waren sehr ähnlich. Sie zeigten drei voneinander abgegrenzte Domänen, die in Zusammenhang mit einer vorliegenden Struktur der verwandten Ca2 -ATPase interpretiert werden konnten. Die Technik der Oberflächenkristallisation eröffnet neue Möglichkeiten für die Kristallisation von Membranproteinen. Kristallisationsexperimente können bei Proteinkonzentrationen von nur 50-150 (g/ml durchgeführt werden und sind für alle Membranproteine, die mit einem His-tag exprimiert werden können, anwendbar. Es wurde ein Homologiemodell der Plasmamembran H -ATPase aus Neurospora crassa in Anlehnung an die atomare Struktur der verwandten Ca2 -ATPase SERCA1 erstellt. Beide Enzyme liegen in unterschiedlichen Konformationen vor, die sie während des Reaktionszyklus durchlaufen. Es konnte gezeigt werden, dass es sich dabei offenbar um die Bewegung ganzer Domänen handelt. Dabei wurde klar, dass in einem solchen Fall schon 3D-Strukturen bei einer mittleren Auflösung von ca. 8 Å, wie sie mit Hilfe der Elektronenkristallographie verhältnismäßig einfach erreicht werden können, viel zum Verstehen von Reaktionszyklen beitragen können, die große Konformationsänderungen beinhalten.
Diese Arbeit untersucht die Produktion von Teilchen durch Vakuumpolarisation in Anwesenheit klassischer Felder. Eine unquantisierte Beschreibung des bosonischen Sektors einer Quantenfeldtheorie wird möglich, wenn dieser stark besetzt ist. Sind die Besetzungszahlen größer als eins, können Quantenprozesse als Korrekturen angesehen werden. Für die Fermionen gibt es wegen des Paulischen Prinzips kein solches Konzept. Situationen mit diesen starkbesetzten Feldern finden sich im Fall der Quantenchromodynamik (QCD) zum Beispiel in ultrarelativistischen Schwerionenkollisionen. Diese werden zur Zeit am Relativistic Heavy Ion Collider (RHIC) am Brookhaven National Laboratory durchgeführt und in Zukunft am Large Hadron Collider (LHC) am CERN untersucht werden. Diese hochbesetzten sind auch starke Felder. Damit können in Abwesenheit weiterer Skalen Prozesse mit unterschiedlich häufigen Kopplungen an das Hintergrundfeld nicht parametrisch unterschieden werden. Die dominanten Quanteneffekte werden durch Terme der klassischen Wirkung. die zweiter Ordnung in den Quantenfeldern sind, repräsentiert. Alle diesbezüglichen Informationen sind in den Propagatoren der entsprechenden Quanten enthalten. Wegen der starken Felder müssen hier die vollen Propagatoren im Hintergrundfeld benutzt werden. Bei schwacher Kopplung - in führender Ordnung in den Quanteneffekten - enthalten sie alle Details über die Streuung der Quantenteilchen am Feld und deren Produktion durch Vakuumpolarisation. Ohne weitere radiative Korrekturen, gibt es in der Quantenelektrodynamik die Produktion von Elektron-Positron-Paaren. Analog dazu werden in der QCD Quark-Antiquark-Paare produziert. Dort kommt aber wegen der Nichtlinearität des Feldtensors noch die Produktion von Paaren gluonischer Quantenfluktuationen hinzu. Die Quarks und Antiquarks sowie die gluonischen Quantenfluktuationen sind parametrisch nicht zu unterscheiden. Für Schwerionenkollisionen lassen sich Größen wie die anfängliche Energiedichte und die Zerfallszeit des hochdichten Regimes abschätzen. Es stellt sich nun die Frage, ob man bei Einschränkung auf diese Situationen eine der beiden Quantenspezies als unwichtig vernachlässigen kann. Im Bereich hoher Teilchenimpulse, läßt sich die Produktion störungstheoretisch beschreiben. Hier untersuche ich zunächst in der niedrigsten Ordnung der klassischen Wirkung die Produktionsprozesse der beiden Arten von Quanten bei Anwesenheit beliebiger Felder. Für die Aufteilung des Gluonenfeldes in seinen Erwartungswert und seine Fluktuationen wird die Hintergrundfeldmethode der QCD verwendet. Für den Spezialfall rein zeitabhängiger Felder werden die Produktionsraten für Parametersätze, wie sie für RHIC und LHC erwartet sind, angegeben. Es stellt sich heraus, daß auf perturbativem Niveau sowohl Situationen, in denen die Fermionen dominieren, als auch solche, in denen die gluonischen Quantenfluktuationen überwiegen' vorkommen. Im Fall der Gluonen könnte der stark besetzte niederengetische Bereich durch das klassische Feld und der hochenergetische schwächer besetzte durch eine perturbative Beschreibung hinreichend genähert sein. Da es für die Fermionen jedoch kein klassisches Feld gibt, bliebe ihr niederenergetischer Bereich vollkommen unbehandelt. Hier ist auf jeden Fall eine nichtperturbative Beschreibung notwendig. Diese kann auf dem vollen Fermionpropagator im Hintergrundfeld aufgebaut werden. Der bereits oben verwendete Spezialfall eines rein zeitabhängigen Feldes kann als Näherung eines boostinvarianten Szenarios in der zentralen Region der Schwerionenkollision gesehen werden. In Anwesenheit derartiger Felder wird hier der volle retardierte Propagator hergeleitet. Für den exakten Propagator und alle Näherungen wird das Impulsspektrum der produzierten Fermionen berechnet. Dabei stellt sich die sogenannte Abelsche Näherung als bester Kandidat neben der exakten Beschreibung heraus. Sie entspricht, im Gegensatz zur störungstheoretischen Näherung, bei der die Fermionen immer mir ihrem asymptotischen kinematischen Impuls propagiert werden, einer Propagation mit dem mittleren kanonischen Impuls, was die Verbesserung der Näherung erklärt. Mit den, durch die induzierten Strömen modifizierten Yang-Mills-Gleichungen, stellt die Arbeit das komplette Funktionensystem dar, daß benötigt wird, um eine selbstkonsistente Berechnung des klassischen Feldes mit perturbativ beschriebenen gluonischen Quantenfluktuationen und exakt berechneten Quarks und Antiquarks durchzuführen.
Borrelia lusitaniae, eine vorwiegend im Mittelmeerraum/ Südwesteuropa vorkommende Borrelienspezies des B. burgdorferi s.l.-Komplexes, wird derzeit als eine potentiell humanpathogene Genospezies diskutiert. Für vergleichende Studien stehen derzeit vorwiegend Zeckenisolate und nur zwei Patientenisolate zur Verfügung. Im Rahmen dieser Arbeit wurden insgesamt 16 Isolate, darunter ein Patientenisolat aus verschiedenen Regionen Portugals und Süddeutschlands im Bezug auf ihre Serumempfindlichkeit/-resistenz gegenüber humanem Serum und der Fähigkeit Komplementregulatoren aus Serum zu binden, untersucht. Anhand der erhaltenen Ergebnisse konnte gezeigt werden, dass B. lusitaniae, mit Ausnahme des Stammes IP-N1, als serumsensible Genospezies klassifiziert werden kann. Alle Isolate aktivierten die Komplementkaskade hauptsächlich über den alternativen Weg wobei massiv Komplementkomponenten auf der Zelloberfläche deponiert wurden. Die effiziente Aktivierung und Ablagerung des terminalen Komplementkomplexes führte zur vermehrten Ausbildung sogenannter Blebs, Ausstülpungen der äußeren Membran, was auf eine effiziente Lyse der Borrelienzellen hinwies. Obwohl serumsensibel, waren alle Isolate in der Lage, den löslichen Komplementregulator des alternativen Weges, Faktor H aus dem Serum zu binden. Allerdings konnte nur bei 4 der 16 untersuchten Isolate eine schwache komplementregulatorische Aktivität von zellgebundenem Faktor H durch den Nachweis spezifischer C3b-Spaltprodukte bestätigt werden. Diese Ergebnisse lassen vermuten, dass Faktor H in seiner Eigenschaft als Komplementregulator inhibiert ist. Durch weiterführende Analysen konnte ein Faktor H-bindendes Protein von 16 kD bei B. lusitaniae MT-M8 identifiziert und charakterisiert werden. Dieses als BlCRASP-3 bezeichnete Protein war in der Lage, Faktor H über dessen C-terminale SCR-Domänen 19-20 zu binden. Im Vergleich zu anderen mit Faktor H interagierenden Proteinen war die Bindung sehr schwach und erreichte nur ca. 16% der Bindungsstärke von BbCRASP-3, was eine nicht nachweisbare Kofaktoraktivität von an BlCRASP-3 gebundenem Faktor H erklären könnte. Sequenzanalysen und Untersuchungen mit verschiedenen Proteasen identifizierten BlCRASP-3 als ein auf der Oberfläche von B. lusitaniae lokalisiertes Lipoprotein, welches eindeutig zur heterologen Erp-Proteinfamilie gehört. Interessanterweise ist bei BlCRASP-3 jener Bereich am C-Terminus konserviert, der als Faktor H-Bindungsstelle erachtet wird. Die nicht konservierten Austausche einzelner Aminosäuren innerhalb der vermuteten Bindungsregion und das Fehlen höher geordneter Strukturen, wie z.B. coiled-coils, könnten die stark reduzierte Bindungskapazität von Faktor H an BlCRASP-3 erklären. Zusammenfassend lässt sich feststellen, dass die schwache Bindung von Faktor H und die Inhibition der komplementregulatorischen Aktivität von Faktor H, als Ursachen für den fehlenden Schutz vor der durch Komplement vermittelten Lyse angenommen werden kann, wodurch die untersuchten B. lusitaniae-Isolate einen serumsensiblen Phänotyp aufweisen. Des Weiteren konnten bei allen untersuchten B. lusitaniae Isolaten erp-homologe Gensequenzen auf Plasmiden unterschiedlicher Größe nachgewiesen werden. Manche Isolate wiesen multiple erp-Loci auf. Durch PCR konnten erp-homologe Gensequenzen amplifiziert werden, die für ErpL/ErpY-orthologe Proteine kodieren und nicht mit Faktor H interagieren. Welche Funktion diese Proteine für Borrelien besitzen bleibt weiterhin ungeklärt. Es ist denkbar, dass diese Proteine bei der Erregerpersistenz oder dem Immunescape in der Eidechse als natürlichem Wirt eine wichtigen Rolle spielen oder Borrelien ermöglichen, sich an andere Reservoirwirte anzupassen.
Hintergrund: Das genaue Wissen um die Umstände eines jeden tödlichen Arbeitsunfalls ist Voraussetzung für die Identifizierung von Unfallschwerpunkten und ermöglicht eine effektive Präventionsarbeit. Mit dieser rechtsmedizinischen Studie zum Arbeitsunfallgeschehen soll ein Beitrag dazu geleistet werden, die Zahl tödlicher Arbeitsunfälle in Deutschland zu senken.
Material und Methode: Zur Untersuchung kamen die tödlichen Arbeitsunfälle, die sich im Einzugsbereich des rechtsmedizinischen Instituts Frankfurt am Main in den Jahren von 2005 bis 2016 ereigneten. Ausgewertet wurden Obduktionsprotokolle sowie die dem Institut zur Verfügung gestellten Staatsanwaltschaftlichen Ermittlungsakten.
Ergebnisse. Es fanden sich 87 tödliche Arbeitsunfälle in dem genannten Zwölfjahreszeitraum. Die Altersstruktur reichte vom jugendlichen Alter bis in das Rentenalter. Betroffen waren zum größten Teil männliche Arbeiter (96,6%, p< 0,0001), verhältnismäßig häufig ausländischer Nationalit.t (34,5%). Die meisten Unfälle ereigneten sich in der 2. Jahreshälfte (58,6%), an Montagen (26,4%), kurz vor und nach der Mittagspause. In 3 Fällen lag die Blutalkoholkonzentration über 0,5‰. Die Baubranche (55,2%) war der unfallträchtigste Wirtschaftszweig. Der Absturz (28,7%) war der häufigste
Unfallmechanismus und das Polytrauma (39,1%) gemeinsam mit dem Schädel-Hirn-Trauma (24,1%) gemäß dem ISS die häufigste Todesursache.
Diskussion: Nach den Ergebnissen dieser Studie sollten Alter der Arbeiter sowie die Tages-, Wochen- und Jahreszeit bei der Ausführung risikoreicher Arbeiten im Baugewerbe berücksichtigt werden. Besonderes Augenmerk sollten Arbeitgeber auf die Kontrolle von Sicherheitsvorkehrungen bei Arbeiten in der Höhe sowie auf die Durchsetzung der Helmpflicht gerade auch bei ausländischen Arbeitnehmern legen.
Worum geht es in dieser Arbeit? Dies ist eine Arbeit über Websites. Darüber, wie sie gelesen und geschrieben werden und wie man das lernen kann. Da es in dieser Arbeit um Lesen, Schreiben und Lernen geht, fließen in sie sowohl Aspekte der Sprachwissenschaft als auch der Sprachdidaktik ein. Was will diese Arbeit? Diese Arbeit hat zwei Ziele, ein sprachwissenschaftliches und ein sprachdidaktisches. In sprachwissenschaftlicher Hinsicht sollen, auf der Grundlage einer gründlichen Analyse seiner Eigenschaften, die Besonderheiten des Lesens und Schreibens im World Wide Web herausgearbeitet werden. Aufbauend auf dieser Analyse sollen im sprachdidaktischen Teil der Arbeit die Kompetenzen ermittelt und in Beziehung zueinander gesetzt werden, die zur Erstellung von Websites notwendig sind. Das so entstehende Kompetenzmodell bildet die Basis für eine zielgerichtete, effektive und evaluierbare Umsetzung der Gestaltung von Websites in der Schule und die Grundlage für weiterführende empirische Arbeiten. Wie ist die Arbeit aufgebaut? Im ersten Kapitel der Arbeit wird die Entwicklung der technischen und strukturellen Formate geschildert, welche die Grundlage des Websiteformats bilden. Darauf aufbauend werden seine wichtigsten Eigenschaften beschrieben. Im zweiten Kapitel wird das Websiteformat von anderen kommunikativen Formaten abgegrenzt und mit Hilfe der besonderen Charakteristika, die es besitzt, sein überwältigender Erfolg erklärt. Im dritten Kapitel wird unter Rückgriff auf Ergebnisse der Leseforschung und empirische Untersuchungen zum Lesen im World Wide Web erarbeitet, welchen Einfluss das Websiteformat auf das Lesen von Texten hat und welche Unterschiede es zum Lesen von Texten in anderen kommunikativen Formaten gibt. Auf dieser Grundlage wird ein Bewertungs- und Analyseraster für die Lesbarkeit von Texten im Websiteformat entwickelt. Im vierten Kapitel wird auf der Grundlage verschiedener Modelle des Schreibprozesses dargestellt, was das Schreiben für das Websiteformat vom Schreiben für andere Formate unterscheidet, was dabei besonders beachtet werden muss und welche Entwicklungen für die Zukunft zu erwarten sind. Dabei werden, unter Berücksichtigung des in Kapitel drei erarbeiteten Bewertungs- und Analyserasters, Hinweise für eine sinnvolle Vorgehensweise bei der Gestaltung von Websites gegeben. Im fünften Kapitel wird vor dem Hintergrund der aktuellen bildungspolitischen Diskussion ein Kompetenzmodell für die Gestaltung von Websites entwickelt, das als Basis für die Festlegung von Bildungsstandards und die Beschreibung der Rahmenbedingungen dient, unter denen diese in der Schule verwirklicht werden können. In einer abschließenden Diskussion werden die wichtigsten Ergebnisse nochmals herausgearbeitet und es wird auf Perspektiven für zukünftige sprachwissenschaftliche und sprachdidaktische Forschungsvorhaben hingewiesen.
Beiträge zur Erweiterung der Hückel'schen Theorie der π-Elektronensysteme [Pi-Elektronensysteme]
(1963)
Beiträge zur Erweiterung der Hückel'schen Theorie der Pi-Elektronensysteme Hückel entwickelte 1931 ein Verfahren zur quantenmechanischen Berechnung zahlreicher Eigenschaften von zr-Elektronensystemen. Obwohl die Theorie halbtheoretisch ist, hat sie einen wesentlichen Beitrag zum Verständnis solcher Eigenschaften von ungesättigten und aromatischen Verbindungen geliefert, die dem Grundzustand der Moleküle zugeschrieben werden können, so z. B. der Resonanzstabilität und der Reaktivität. Doch ist sie nur in der Lage, die Eigenschaften dieser Verbindungen richtig zu beschreiben, die durch angeregte Zustände der Moleküle mitbestimmt werden, wie z. B. die Spektren, wenn man für das Resononanzintegral einen entsprechenden Wert verwendet, der von dem für den Grundzustand benutzten bedeutend abweichen kan. Im ersten Abschnitt der vorliegenden Arbeit wird die Hückel'schen Theorie der Pi-Elektronensysteme diskutiert. Einen nur annähernd vollständigen Überblick über die Beiträge zu dieser Theorie zu geben, würde den Rahmen der Arbeit überschreiten. Daher wurde sich im Wesentlichen darauf beschänkt, die Grundgedanken und die Näherungen des Verfahrens klar darzustellen und kritisch zu betrachten, sowie die Anwendungsmöglicheiten zu beschreiben. Hartmann hat 1960 eine Erweiterung der Hückel 'schen Theorie vorgeschlagen, die auch solche Eigenschaften ungesättigter und aromatischer Verbindunsen richtig erfaßt, die aur der Beteiligung angeregter Zustände beruhen, wie am Beispiel der Spektren gezeigt wurde. Im zweiten Teil dieser Arbeit wird die Hückel-Hartmann'sche Theorie der Pi-Elektronensysteme dargestellt und die Ergebnisse mit denen der Hückel'schen Theorie verglichen. Hartmann selbst hat die Erweiterung nur für gleichatomige Pi-Elektronensysteme und unter zahlreichen Vernachlässigunen durchgeführt. Dieser Umstand und die wenigen zu der Theorie erst vorliegenden Arbeiten ließen es wünschensert erscheinen, die Hückel-Hartmannsche Theorie der Pi-Elektronensysteme systematisch und in möglichst allgemeiner Form zu diskutieren. Im dritten Abschnitt der Arbeit wird daher eine Generalisierung der Hückel-Hartmannt'schen Theorie durchgeführt. Mit Hilfe des entwickelten Verfahrens wird anschließend der Einfluß der Überlappungen auf die Ergebnisse untersucht und eine Erweiterung der Hückel-Hartmann'schen Theorie auf heteroatomare Pi-Elektronensysteme angegeben.
NP25 wurde im Jahre 1994 als ein in allen Bereichen des zentralen Nervensystems Neuron-spezifisch exprimiertes Gen in der adulten Ratte identifiziert (Ren et al., 1994). Durch eigene Vorarbeiten konnte diese selektive neuronale Expression im Huhnembryo bestätigt werden, wobei die Expression von NP25 im Neuralrohr, den sympathischen paravertebralen Ganglien und sensorischen Hinterwurzelganglien vor der terminalen Differenzierung und Scg10-Expresison beginnt (M.Pape, Diplomarbeit, 2003). In dieser Arbeit konnte nun gezeigt werden, dass NP25 in diesen Geweben nach den proneuralen Faktoren Ascl1 und Ngn2 exprimiert wird, zu einem Zeitpunkt an dem die Vorläuferzellen mit der Differenzierung beginnen. Im Neuralrohr beginnt die Expression von NP25 zeitgleich mit der Expression von NeuroM, einem der frühesten Marker für junge, postmitotische differenzierende Neurone (Roztocil et al., 1997). NP25 stellt somit einen der frühesten panneuronalen Marker für differenzierende Neurone dar. Das NP25-Protein ist in den Zellkörpern und Fortsätzen der Neurone im Neuralrohr und den untersuchten peripheren Ganglien lokalisiert, wobei die Fasern der Motoneurone, im Gegensatz zu deren Zellkörpern, NP25-negativ sind. Mit voranschreitender Differenzierung nimmt die NP25- Proteinkonzentration ähnlich wie die Expression auf mRNA-Ebene ab, wobei in den peripheren Ganglien NP25 über einen längeren Zeitraum hinweg auf hohem Niveau exprimiert wird. Kultivierte Neurone aus sensorischen Hinterwurzelganglien und sympathische Neurone der paravertebralen Ganglien zeigen eine Lokalisation des NP25-Proteins im Zytoplasma der Zellkörper und Fortsätze, wobei NP25 in den sympathischen Neuronen wesentlich stärker exprimiert wird. Dieser Befund konnte durch die Analyse der Proteinkonzentration mit Hilfe der Western Blot Methode bestätigt werden. Die Überexpression von NP25 in verschiedenen Zelltypen führte zu verstärktem oder reduzierten Neuritenauswachsen, wobei die Effekte mit dem NP25-Niveau korrelieren. Zellen mit einem geringen endogenen NP25-Expressionsniveau, wie sensorische Neurone aus fünf Tage alten Huhnembryonen und PC12-Zellen, reagieren auf die Erhöhung des NP25-Gehalts mit verstärktem Längenwachstum der Neuriten, während sympathische Neurone aus sieben Tage alten Huhnembryonen, die ein hohes endogenes Expressionsniveau aufweisen, reduziertes Längenwachstum und reduzierte Verzweigungskapazität zeigen. Diese Ergebnisse sprechen dafür, dass maximales Neuritenwachstum eine optimale NP25-Konzentration erfordert, wobei im Falle der Überexpression von NP25 in den sympathischen Neuronen das Optimum überschritten wird und dadurch Neuritenauswachsen und Verzweigung inhibiert werden. Die Effekte auf das Längenwachstum der Neuriten in den primären Neuronen konnten durch RNAi Experimente bestätigt werden. Neben dem Längenwachstum war auch das initiale Auswachsen von Fortsätzen durch die Veränderung des NP25-Expressionsniveaus betroffen. Im Falle der PC12-Zellen induzierte die NP25-Überexpression nicht nur Längenwachstum der Neuriten, sondern auch die Zahl der Fortsätze pro Zelle wurde erhöht. In den sympathischen Neuronen, in denen durch NP25- Überexpression das Längenwachstum und die Verzweigungskapazität negativ reguliert werden, nimmt die Anzahl der Neuriten pro Zellen nach Erniedrigung des NP25-Expressionsniveaus ebenfalls ab. Dies kann dadurch erklärt werden, dass Längenwachstum und initiales Auswachsen von Neuriten durch unterschiedliche Mechanismen reguliert werden (Glebova and Ginty, 2005; Luo, 2002), was hier möglicherweise dazu führt, dass Längenwachstum negativ und initiales Auswachsen positiv durch NP25 beeinflusst wird. In den sensorischen Neurone führte weder die Erhöhung noch die Erniedrigung des NP25-Expressionsniveaus zu einer Veränderung des initialen Auswachsens, was eine differentielle Regulation der Prozesse bestätigt. Da viele Mitglieder der CaP-Proteinfamilie mit F-Aktin interagieren (Gimona et al., 2002) wurde untersucht, ob NP25 und F-Aktin in kultivierten sympathischen und sensorischen Neuronen und in PC12-Zellen kolokalisieren. In den primären Neuronen wurde im Gegensatz zu der Situation in den PC12-Zellen keine Kolokalisation beobachtet, wobei NP25 und F-Aktin in den PC12-Zellen nur in kleinen Bereichen an den distalen Enden filopodienartiger Fortsätze kolokalisieren. Auch eine Interaktion von NP25 und G-Aktin konnte in den PC-Zellen ausgeschlossen werden. Durch die Identifikation zweier RhoGAP-Proteine (NIRGAP1 und 2) als potentielle Interaktionpartner (M.Geissen, nicht publiziert) könnte NP25 Neuritenauswachsen durch indirekte Beeinflussung des Aktinzytoskeletts über Rho-Signalwege regulieren. Die identifizierten RhoGAPs konnten durch in situ Hybridisierung im Rückenmark, in den Hinterwurzelganglien und den sympathischen paravertebralen Ganglien im Rattenembryo nachgewiesen werden. Sie gehören zu keiner bekannten Familie und unterscheiden sich auch strukturell von den meisten bisher beschriebenen RhoGAPs, da sie mehr als eine (drei) GAP-Domänen enthalten. Durch diesen Befund ergeben sich neue Ansätze für die weiteren Untersuchungen zur Regulation des Neuritenwachstums durch NP25. Da im adulten Nervensystem für NP25 eine Funktion in der Dynamik der Dendriten angenommen wird, sind Untersuchungen der Dendritenausbildung in vitro ebenfalls nahe liegend.
Die funktionelle Integrität des Endothels ist von essentieller Bedeutung für den Organismus. Die Entstehung und Progression vaskulärer Erkrankungen, wie z.B. der Atherosklerose, ist daher oftmals ursächlich mit einer Dysfunktion des Endothels verbunden. Vor diesem Hintergrund ist insbesondere die Aufklärung der molekularen Grundlagen der Regulation von Endothelzellfunktionen, ein zentraler Aspekt heutiger Forschung. Homeobox- (Hox) Transkriptionsfaktoren nehmen eine Schlüsselposition bei der Regulation einer Vielzahl zellulärer Prozesse, wie Proliferation, Migration und Gewebe-spezifischer Differenzierung ein. Die Identifikation sowie die Analyse der Funktion und Regulation von Hox-Transkriptionsfaktoren in Endothelzellen, leistet deshalb einen wichtigen Beitrag zum Verständnis der Endothelzellbiologie. Als ein zentraler Befund dieser Arbeit, konnte mit der Histon-Methyltransferase MLL erstmals die funktionelle Rolle eines epigenetischen Hox-Regulators auch in differenzierten Endothelzellen nachgewiesen werden. MLL erwies sich hierbei von essentieller Bedeutung für pro-angiogene Endothelzell-Funktionen. Die bedeutende Rolle von MLL bei der Migration von Endothelzellen konnte mit der transkriptionellen Regulation der beiden Hox-Transkriptionsfaktoren HoxA9 und HoxD3 in Verbindung gebracht werden, die hier erstmals als direkte Zielgene von MLL in Endothelzellen beschrieben wurden. Als funktionelle Mediatoren der MLLabhängigen Migration konnten zudem der EphB4-Rezeptor sowie die Integrine αVβ3 und α5β1, als Zielgene von HoxA9 bzw. HoxD3 nachgewiesen werden. Neben der Migration konnte für MLL auch eine essentielle Rolle für das Sprouting von Endothelzellen nachgewiesen werden, die sich im Gegensatz zur Migration, nicht auf die Regulation von HoxA9 oder HoxD3 zurückführen ließ. Diese Beobachtung lässt auf die Involvierung zusätzlicher MLLabhängiger Faktoren schließen, und verdeutlicht damit die zentrale Rolle von MLL bei der Regulation komplexer, pro-angiogener Prozesse in Endothelzellen. Über die genannte Rolle von MLL hinaus konnte im Rahmen dieser Arbeit das Wissen um Hox-Transkriptionsfaktoren mit funktioneller Relevanz für Endothelzellen, um die beiden Hox-Transkriptionsfaktoren HoxB4 und HoxB5 erweitert werden. Hier konnte für HoxB4 eine Rolle für die Fähigkeit von Endothelzellen zur Ausbildung zwei- und 3-dimensionaler Gefäßstrukturen nachgewiesen werden, während HoxB5 in die Proliferation, die Expression des endothelialen Markergens eNOS sowie die morphologische Beschaffenheit von Endothelzellen eingreift. Zusätzlich konnte die Rolle von transkriptionellen Hox Co-Faktoren, als Modulatoren von Hox-Funktionen, am Beispiel der Interaktion von Meis1 und HoxA9 bei der Transaktivierung des eNOS-Promoters aufgezeigt werden. Zusammenfassend leisten die hier gezeigten Daten einen Beitrag zum Verständnis der Rolle von Hox-Transkriptionsfaktoren als molekulare Regulatoren endothelialer Zellfunktionen.
Klinische Forschung zum Mammakarzinom in Deutschland wird von zahlreichen Faktoren bestimmt. Um die förderlichen und hinderlichen Faktoren bei der Planung und Durchführung von klinischer Forschung darstellen zu können, werden diese am Beispiel der größten deutschen Brustkrebsforschungsgruppe, der German Adjuvant Breast Cancer Group, GABG, dargestellt. In die GABG-Studien wurden seit der Gründung der Forschungsgruppe im Jahr 1981 in 18 Studien 9.692 Patientinnen eingebracht. Grundlage sind neben den Erfahrungen einer langjährigen Tätigkeit als Studienkoordinatorin dieser Forschungsgruppe die Ergebnisse einer schriftlichen und einer mündlichen Befragung der teilnehmenden Kliniken. Diese Arbeit beleuchtet die bei der Planung zu berücksichtigenden Kriterien wie, z.B. rechtliche und finanzielle Grundlagen, Kooperation mit der Klinikverwaltung, mit der Pharmazeutischen Industrie und mit anderen Studiengruppen, die Abhängigkeit von Ethikkommissionen und von der Qualität der Zentren sowie das Interesse der Öffentlichkeit an klinischer Forschung generell. Trotz förderlicher Einflüsse gibt es schon im Anfangsstadium einer klinischen Studie Defizite, die den Beginn einer Mammakarzinom-Studie in Deutschland behindern und teilweise sogar verhindern können. Die Effizienz von klinischer Forschung zum Mammakarzinom in Deutschland könnte wesentlich besser sein, wenn klinische Forschung in Kooperation statt in einem Nebeneinander gleichartiger Studiengruppen zum Mammakarzinom mit den fast gleichen Studieninhalten stattfinden würde. Bei der Durchführung der Studien zum Mammakarzinom gibt es im Rahmen der hier dargestellten Studiengruppe Ansätze, die die Effizienz von Studien bereits gesteigert haben. Dazu gehören positive Beispiele von gelungener Kommunikation mit den Prüfzentren, geeignete Fortbildungsangebote für Prüfärzte und für niedergelassene Ärzte sowie für das Dokumentationspersonal der teilnehmenden Kliniken. Mit der Darstellung der hinderlichen Faktoren bei der Durchführung der Studien in der GABG werden die Defizite der klinischen Forschung zum Mammakarzinom in Deutschland beispielhaft vorgestellt. Defizite sind neben der geringen Stellung der klinischen Forschung in Deutschland in der mangelnden Institutionalisierung und den strukturellen Defiziten klinischer Forschung sowie in den daraus resultierenden rigiden Verwaltungsstrukturen zu finden. Zudem wird auf die fehlende Ausbildung für klinische Forschung und den kaum gelernten Umgang mit dem Patienten als hinderliche Faktoren hingewiesen. Die schlechten Arbeitsbedingungen für Prüfärzte, der ständige Prüfarztwechsel, sowie das geringe kulturelle Ansehen der klinischen Forschung in Deutschland sind weitere Gründe für die mangelnde Patienteneinbringung in Studien und für die zeitverzögerte Dokumentation von klinischen Studien. Die Verwertung der Studienergebnisse ist innerhalb der GABG, aber auch im internationalen Vergleich noch zu gering. Zum Schluss werden Vorschläge für die Verbesserung der klinischen Forschung zum Mammakarzinom in Deutschland gemacht. Dazu gehört ihre bessere Institutionalisierung, mehr staatliche Förderung (DFG-Mittel) und damit die Stärkung der Unabhängigkeit von der Industrie, die vermehrte Kooperation zwischen allen beteiligten Gruppierungen, die Umsetzung des von der EU geforderten „einen Ethik- Votums“, die Aufstockung und bessere Bezahlung von Personal für klinische Forschung, die Einführung einer Ausbildung und die Verstärkung der Fort- und Weiterbildungsanstrengungen für klinische Forschung. Abgerundet wird dies durch die Forderung nach Qualitätssicherung durch GCP/ICH Konformität bei der Ausführung der mit klinischer Forschung verbundenen Tätigkeiten. Ziel sollte weiterhin die Steigerung der Veröffentlichungen der Forschungsergebnisse in internationalen Journalen, in der Fachpresse, aber auch in der Laienpresse sein. Nur so kann das Interesse der Öffentlichkeit und noch nicht erkrankter Frauen an klinischer Forschung in Deutschland geweckt werden. Mit dem Ausblick auf eine Neustrukturierung der GABG durch Gründung der German Breast Group (GBG), einer Forschungs GmbH, die als Plattform für klinische Studien zum Mammakarzinom eine schnellere, zielgerichtetere und damit erfolgreichere Umsetzung klinischer Forschung in Deutschland mit verbesserter Therapie zum Wohle des Patienten anstrebt, wird diese Arbeit abgeschlossen.
This research project investigated how motor activity, such as cycling, influences the acquisition of foreign language vocabulary under two distinct conditions of auditory-motor-synchronisation. In a mixed subject design, 48 participants had to learn 40 Polish-German vocabulary pairs by auditory presentation over headphones in two different conditions, in which they performed motor activity cycling on a bicycle ergometer: in experiment 1, vocabulary was presented in a fixed rhythm while in experiment 2, participants self-initiated the presentation of vocabulary through pedalling. After having listened to the word pairs, they had to perform online vocabulary tests, one directly after the learning session and a second one 24 hours later from home. Additionally, the individual pitch perception preference (i.e. fundamental vs. spectral pitch perception) of the participants was determined.
The results showed that fundamental listeners forgot significantly more vocabulary than spectral listeners during the fixed than during the self-initiated condition. There was no difference within the groups for the self-initiated condition. The analysis of the motor data revealed a significantly more accurate synchronisation for fundamental listeners during the fixed condition. Therefore, this study provides first evidence for the benefit of self-initiated auditory-motor synchronisation in the process of learning a foreign language in adults. It also reveals that pitch preference has an effect on auditory-motor synchronisation.
Die MRT/MRA spielt in der klinischen Diagnostik des thorakalen Gefäßsystems bisher nur eine untergeordnete Rolle. Ziel der vorliegenden Dissertation war es, die Untersuchungstechnik der MRT für entsprechende Fragestellungen zu optimieren, und im Vergleich mit anderen bildgebenden Verfahren, insbesondere CT und Sonographie, die der MRT eigenen Möglichkeiten und Limitationen aufzuzeigen. Um die von dem Geräteherstellern vorgegebenen Untersuchungsprotokolle zu optimieren, wurde zunächst der Einfluß der verschiedenen Untersuchungsmodalitäten (EKG-Triggerung, Schichtorientierung) auf die Bildqualität an 40 gesunden Probanden überprüft. Die optimierten Sequenzprotokolle wurden sodann bei 130 Patienten mit primären Erkrankungen und Anomalien der thorakalen Gefäße (Aortenaneurysmata, Aortenbogenanomalien, Aortenisthmusstenosen, Aortendissektionen, Pulmonalarterienektasien, Pulmonalarterienschlingen, Scimitar-Syndrom, AV-Malformationen) und 72 Patienten mit sekundärer Beteiligung der thorakalen Gefäße (bei Bronchialkarzinomen, Non-Hodgkin-Lymphomen, Oesophaguskarzinomen, Morbus Hodgkin, verschiedenen soliden Tumoren, Arteriitiden) angewandt. Durch Vergleich der mit den verschiedenen bildgebenden Verfahren erzielten Ergebnisse wurde die Wertigkeit der MRT/MRA ermittelt. Probandenuntersuchungen: Obwohl bei der EKG-Triggerung keine der möglichen Kombinationen von Körperlagerung und Elektrodenpositionierung einen prinzipiellen Vorteil bot, erwies sich die konventionelle Kombination (Rückenlagerung, Brustelektroden) als am wenigsten störanfällig. Eine von der Längsachse des Magnetfeldes abweichende Elektrodenanordnung, z.B. entlang der elektrischen Achse des Herzens, kann nicht empfohlen werden. Um eine optimale Abbildungsqualität zu gewährleisten, müssen für verschiedene vaskuläre Strukturen bestimmte Schichtorientierungen ausgewählt werden. Beispielsweise gelingt die Darstellung des Aortenbogens am besten in parasagittaler Schichtung, entsprechend der LAO-Projektion des Herzkatheters. Bei der Evaluierung des Potentials der MRT zur dynamischen 3-D-Visualisierung des Herzens und der thorakalen Gefäße erwies sich die koronare Schichtung als bester Kompromiss zwischen Meßzeitaufwand und Rekonstruktionsqualität. Dagegen war die MIP-Ansicht, unabhängig von der ausgewählten Schichtorientierung, diagnostisch unbrauchbar. Patientenuntersuchungen: Für jede einzelne Patientengruppe wurden optimierte minimale und erweiterte Sequenzprotokolle definiert. Der limitierende Faktor bei der MRT ist der Zustand des Patienten, dem die Dauer der Untersuchung interaktiv angepaßt werden muß. Hier darf insbesondere für die Auswahl und die Optimierung der Sequenzparameter keine Zeit verloren gehen. Bei den meist kindlichen Gefäßmißbildungen stellt die MRT, neben der transthorakalen und transoesophagealen Sonographie, das Untersuchungsverfahren der Wahl dar. Mit beiden Verfahren ist in der Regel eine suffiziente Beurteilung der Fehlbildungen möglich. In Fällen mit komplexen Fehlbildungen allerdings gelingt eine abschließende Beurteilung meist nur in der Synopsis der Ergebnisse beider Verfahren. Bei entzündlichen oder malazischen Trachealveränderungen muß häufig zusätzlich eine Tracheo- bzw. Bronchoskopie durchgeführt werden. Das Ausmaß einer Trachealstenosierung kann in der Mehrzahl der Fälle mittels MRT mit hinreichender Genauigkeit bestimmt werden. Bei den MRT-Untersuchungen der Patienten mit Aortenaneurysmata wurden ähnlich gute Ergebnisse wie von anderen internationalen Arbeitsgruppen erzielt. Infolge der relativ langen Akquisitionszeiten der MRT ergeben sich für die dissezierenden Aortenaneurysmata allerdings häufig durch Pulsationsartefakte bedingte Limitationen in der Detailgenauigkeit. Aufgrund der schnelleren Scanzeit ermöglicht die CT hier meist eine artefaktfreiere Darstellung. Nachteile der CT aber sind die Strahlenbelastung und die potentielle Nierenschädigung durch Kontrastmittel. In der Gruppe der Patienten mit sekundärer Beteiligung der thorakalen Gefäße werden mit MRT/MRA, CT und Dopplersonographie gleich gute Ergebnisse erzielt. Bei Klärung der Frage einer Gefäßinfiltration oder der Analyse von entzündlichen Gefäßveränderungen dagegen ergibt sich ein Vorteil für die MRT. Von der technischen Weiterentwicklung der MRT/MRA ist eine Erweiterung der diagnostischen Möglichkeiten auch im Bereich des thorakalen Gefäßsystems zu erwarten.
In der vorliegenden Arbeit wurden die Glukoneogenese und der Glyoxylat-Zyklus in den humanpathogenen Hefen Candida albicans und Candida glabrata untersucht und Komponenten dieser Stoffwechselwege charakterisiert. Durch Aktivitätsmessungen konnten Homologe der Enzyme von Glukoneogenese und Glyoxylat-Zyklus in C. glabrata nachgewiesen werden, und gezeigt werden, dass ihre Aktivität einer kohlenstoffquellen-abhängigen Regulation unterliegt. Die Gene der Enzyme des Glyoxylat-Zyklus wurden mittels funktioneller Komplementation in S. cerevisiae isoliert. In S. cerevisiae unterliegen die Enzyme aus C. glabrata derselben Regulation wie die nativen Enzyme aus S. cerevisiae, was darauf hindeutet, dass die aus S. cerevisiae bekannte Regulationskaskade zumindest teilweise in C. glabrata konserviert ist. In C. glabrata konnten ferner Homologe der Transkriptionsaktivatoren Cat8p und Sip4p identifiziert werden. Beide Proteine werden nur bei Wachstum auf nichtfermentierbaren Kohlenstoffquellen gebildet und sind dann im Zellkern lokalisiert. CgCat8p und CgSip4p sind in der Lage, in einem heterologen System die Expression der Gene des Glyoxylat-Zyklus von C. glabrata kohlenstoffabhängig zu aktivieren. Im Vergleich zu ihren S. cerevisiae Homologen, unter denen Cat8p den Hauptregulator darstellt, waren beide Proteine im gleichen Maße in der Lage, ihre Zielgene zu aktivieren. Dies deutet daraufhin, dass die Regulation der Glukoneogenese und des Glyoxylat-Zyklus in C. glabrata redundanter organisiert ist als in S. cerevisiae. Auch in C. albicans konnte ein Cat8p-Homolog identifiziert werden. Das CaCat8p ist in der Lage, in einem heterologen System die Expression der Gene der Glukoneogenese und des Glyoxylat-Zyklus von C. albicans kohlenstoffabhängig zu aktivieren. Die Cat8p-vermittelte Aktivierung erfolgt dabei zumindest teilweise über Sequenzen, die einen ähnlichen Konsensus aufweisen wie die UAS/CSRE des ScCat8p. Eine Deletion von CaCAT8 in C. albicans zeigt aber keinen sichtbaren Phänotyp, was auf die Existenz eines weiteren Aktivators hindeutet. Die Stoffwechselwege der Glukoneogenese und des Glyoxylat-Zyklus sind innerhalb der Hefen konserviert. Auffällig ist allerdings dass die humanpathogenen Hefen C. albicans und C. glabrata im Vergleich zu S. cerevisiae mehrere fast gleichberechtigte Aktivatoren dieser Stoffwechselwege besitzen. Das unterstreicht die Bedeutung, die diese Stoffwechselwege für diese Hefen haben.
Die soziale Arbeitsteilung bei Honigbienen ist ein komplexes selbstorganisatorisches System, welches auf zwei Ebenen der biologischen Organisation zu verorten ist: dem Individuum und der Kolonie. Die Regulation der Bruttemperatur ist ebenfalls diesen Gesetzmäßigkeiten unterworfen. Die Arbeits-bereitschaft einzelner Bienen bildet die Grundlage für die Temperaturregulierung des kolonialen Brutnestes.
In dieser Arbeit wird dieses Zusammenspiel aus individuellen Beteiligungen der Arbeiterinnen sowie der erbrachten Gesamtleistung der Kolonie während des Brutwärmens untersucht. Dazu wird eine kleine Bienengruppe auf einer Brutwabe einer thermischen Belastung ausgesetzt. Ein speziell für diese Untersuchungen entwickelter Versuchsaufbau integriert erstmals die Infrarot-Thermografie mit den Temperaturmessungen einer Brutfläche. Somit ist es möglich, die Thoraxtemperaturen der einzelnen, am Brutwärmen beteiligten Arbeiterinnen störungsfrei zu messen und gleichzeitig das erzeugte räumliche und zeitliche Temperaturmuster der Brutwabe zu ermitteln. Zusätzlich wird der Temperaturverlauf der Außentemperatur sowie der zellumgebenden Luft untersucht.
Es kann gezeigt werden, dass die Lufttemperatur im Innenraum eines Bienenstocks ein wichtiger Faktor in der Temperaturregulierung des Brutnestes ist, da sie die untere Temperaturgrenze im Bienenstock bildet. Weiterhin wird der Einfluss der brutwärmenden Arbeiterinnen auf die Temperaturentwicklung einer Brutfläche sichtbar. Durch das flexible Verhalten der Arbeiterinnen kann einer Brutfläche bei thermischer Belastung durch lokal wechselndes Brutwärmen optimal Wärme zugeführt werden. Es gibt es Hinweise auf eine zyklische Periodizität im zeitlichen Temperaturverlauf der Brutzellen, welche auf einen Brutwärmrhythmus durch die Bienen schließen lässt. Durch den Einsatz zweier Unterarten (Apis mellifera carnica & Apis mellifera mellifera) wird sichtbar, dass es zwischen den Gruppen Unterschiede in der Aufrechterhaltung der Lufttemperatur über der Wabe gibt.
Identifizierung und funktionelle Analyse von Pathogenitätsfaktoren in Bartonella bacilliformis
(2023)
Die Carrión-Krankheit ist eine durch Vektoren übertragene vernachlässigte Tropenkrankheit (neglected tropical disease), die in den südamerikanischen Andentälern auf einer Höhe von 600 3.200 m über dem Meeresspiegel vor allem in Peru, aber auch in Ecuador und Kolumbien endemisch ist. Der Erreger dieser Infektionskrankheit ist Bartonella bacilliformis, ein strikt humanpathogenes, Gram-negatives, fakultativ intrazelluläres Stäbchen der Klasse der Alphaproteobakterien. In der akuten Krankheitsphase, die als "Oroya-Fieber" bezeichnet wird, infizieren die Erreger Erythrozyten und verursachen eine schwere akute hämolytische Anämie, hohes Fieber sowie eine ausgeprägte Immunsuppression. Für diese Phase wurden Sterblichkeitsraten von bis zu 88% beschrieben. Dem Oroya-Fieber folgt meist eine chronische Infektion der vaskulären Endothelzellen, bei der durch vaskulo-endotheliale Proliferationen noduläre, Hämangiom-ähnliche, kutane Gefäßläsionen, die als "Verruga peruana" bezeichnet werden, entstehen. Diese beiden Phasen treten in der Regel nacheinander, manchmal aber auch unabhängig voneinander auf. Die Übertragung auf dem Menschen erfolgt durch den Biss infizierter Sandmücken (Lutzomyia spp.), die in den hochgelegenen Regionen der Anden vorkommen. Klimatische Veränderungen führen jedoch zur Expansion des Vektors auf angrenzende Regionen und begünstigen damit die Ausbreitung von B. bacilliformis-Infektionen.
In der Erforschung der Carrión-Krankheit besteht ein erheblicher Wissensmangel zu zahlreichen Aspekten (z. B. Epidemiologie, Infektionsbiologie, Diagnostik, Therapie), wodurch die Entwicklung von potenziellen Diagnostika, Therapeutika oder Vakzinen verhindert wird. Auch wenn frühere Studien zum Ziel hatten, immundominante Proteine für die Entwicklung serodiagnostischer Verfahren und Impfstoffe zu identifizieren, ist bislang kein validierter serologischer Test bzw. ein Impfstoff verfügbar. Daher sollte im ersten Teil dieser Arbeit ein serologischer Test zum Nachweis von anti-B. bacilliformis-Antikörpern entwickelt werden. Hierzu wurde ein Ansatz aus reverser Vakzinologie in Kombination mit einer Analyse heterologer genomischer Expressionsbibliotheken verfolgt, um geeignete immundominante Proteine zu identifizieren. Insgesamt wurden 21 potenziell immundominante Proteine identifiziert, rekombinant produziert, und auf ihre Reaktivität mit B. bacilliformis Patientenseren mittels Immunoblotting analysiert. Von den 21 Antigenkandidaten erwiesen sich 14 als immunreaktiv, die anschließend in einer Lineblot-Analyse mit 26 Serumproben von peruanischen B. bacilliformis Patienten und 96 Serumproben von gesunden deutschen Blutspendern ohne Reisevorgeschichte in Südamerika auf ihren potenziellen Nutzen für serologische Test untersucht wurden. Drei Antigene (Porin-B, Autotransporter-E und hypothetisches Protein-B) erwiesen sich für die Entwicklung eines diagnostischen ELISA als geeignet und wurden in zwei verschiedenen Antigenkombinationen (ELISA 1: Porin-B, Autotransporter-E, ELISA 2: Porin-B, Autotransporter-E, hypothetisches Protein B) verwendet. Um die Leistungsfähigkeit des B. bacilliformis ELISA zu bewerten, wurde eine Receiver-Operating-Characteristic-Analyse durchgeführt. Für die Kombination aus Porin-B und Autotransporter-E lag die Sensitivität des Tests bei 80,8% und die Spezifität bei 94,8%, wohingegen die Kombination aus Porin-B, Autotransporter-E und dem hypothetischem Protein-B in einer Sensitivität von 76,9% und einer Spezifität von 93,8% resultierte. Dieser neu entwickelte ELISA könnte ein nützliches serodiagnostisches Instrument für künftige epidemiologische Studien über B. bacilliformis in endemischen Gebieten darstellen. Darüber hinaus könnten die hier identifizierten immundominanten Antigene eine erste Grundlage für die zukünftige Entwicklung von Impfstoffen für die Prävention Carrión-Krankheit bilden.
Erythrozyten-Invasion und Hämolyse sind wahrscheinlich die wichtigsten Schritte in der Pathogenese der Carrión-Krankheit und verantwortlich für die hohe Sterblichkeitsrate beim Menschen. Genaue mechanistische Kenntnis dieses Prozesses sind entscheidend für die Entwicklung therapeutischer Arzneimittel. Im zweiten Teil dieser Arbeit sollten die in der Hämolyse involvierten Pathogenitätsfaktoren von B. bacilliformis identifiziert werden. Hierzu wurde eine Tn5-Transposonmutagenese in den beiden B. bacilliformis Stämmen KC583 und KC584 durchgeführt. Ein screening nach Hämolyse-defizienten Mutanten führte zur Identifizierung von zwei Pathogenitätsfaktoren: einem Porin (Porin-A) und einer α/β-Hydrolase. Ihre vermutete Funktion im Prozess der Hämolyse wurde durch eine zielgerichtete markerlose Deletion sowie durch genetische Komplementationen in vitro funktionell bestätigt. Dabei zeigte sich, dass Porin-A und die α/β Hydrolase jeweils essenzielle Faktoren für die Hämolyse darstellen. Durch eine in silico-Charakterisierung konnte konservierte biologische Funktionen identifiziert sowie die dreidimensionale Struktur der Proteine vorhergesagt werden. Diese Versuche bilden eine experimentelle Basis, um die Rolle von Porin-A und der α/β-Hydrolase näher untersuchen zu können und um potenzielle (Porin-A und α/β-Hydrolase) Inhibitoren mit anti-hämolytischer und damit therapeutische Wirkung testen zu können.
Mit der vorgelegten Dissertation wird ein Beitrag zur Diskussion um Beschäftigungssicherung unter veränderten globalen und betrieblichen Beziehungen geleistet. Aufgezeigt werden betriebliche Strategien im Umgang mit Beschäftigungskrisen in der Metall- und Elektroindustrie und der Beitrag einer aktiven Arbeitsmarktpolitik zur Sicherung von Beschäftigung. Hintergrund bilden die massiven Beschäftigungseinbrüche, insbesondere Anfang der 1990er Jahre, in der Metall- und Elektroindustrie. Veränderte wirtschaftliche Rahmenbedingungen im Verlauf des Strukturwandels führten zu einer Umorientierung bei den Unternehmens- und Managementstrategien, um auf veränderte Marktanforderungen und verschärfte Wettbewerbsbedingungen zu reagieren und auch weiterhin Gewinnspannen realisieren zu können. Neue Reorganisationskonzepte in den Unternehmen und der zunehmende Druck der von Shareholder Value-Strategien ausgeht, führen immer wieder zu unternehmerischen Anpassungsstrategien, die mit Stelleneinsparungen einhergehen. Am Ende betrieblicher Reorganisation steht häufig der Verlust von Arbeitsplätzen. Allein der Blick auf das Endresultat Personalabbau reicht allerdings nicht aus, um die Auswirkungen dieser Maßnahmen auf Betrieb, Beschäftigte und nicht zuletzt den Arbeitsmarkt erfassen zu können. Ziel der Arbeit ist es, anhand der Analyse von vier Fallstudien Ansatzpunkte dafür zu finden, wie Prozesse im Rahmen von Beschäftigungsabbau beeinflusst und gestaltet werden können. Dabei werden neben betriebsinternen Möglichkeiten der Beschäftigungssicherung ebenfalls Beschäftigungsperspektiven in der Region in den Blick genommen. Für diese Studie wurde ein disziplinenübergreifender Ansatz gewählt, in dem Elemente der Industriesoziologie und der Arbeitsmarktforschung integriert sind. Im Bereich der Industriesoziologie wird auf die Arbeitspolitik und damit einen handlungsorientierten Ansatz der Industriesoziologie zurückgegriffen. Aus dem Bereich der Arbeitsmarktforschung dient der segmentationstheoretische Ansatz als theoretische Grundlage, um die Strukturierung des Arbeitsmarktes und ihre Verfestigung aufzeigen zu können. Präventive Beschäftigungssicherung zu untersuchen setzt voraus, die Grenzen zwischen industriesoziologischen und arbeitsmarktpolitischen Fragestellungen zu überschreiten. Diese Forschungsperspektive ermöglicht es, den in der Regel zu engen Blick auf die Bestandssicherung der vom Abbau bedrohten Arbeitsplätze zu erweitern und ihn für die Beschäftigungsperspektiven im Unternehmen selbst und über das Unternehmen hinaus zu öffnen.
In der vorliegenden Arbeit wurden zehn Substanzen, die im Rahmen des Projekts INTAFERE analytisch in verschiedenen Gewässersystemen des Hessischen Rieds nachgewiesen werden konnten, ökotoxikologisch charakterisiert. Neben der Bestimmung der Akut- und der chronischen Toxizität wurde auch das endokrine Potential mit Hilfe eines rekombinanten Hefe-Assays ermittelt.Die akute Toxizität zeigt zwischen den verschiedenen Substanzen große Differenzen. Die drei Organophosphate TCPP, TBEP und TCEP zeigen selbst bei hohen Konzentrationen keine oder nur sehr geringe Effekte, während 4-NP, 4-t-OP, BPA, TDCPP, AHTN und Terbutryn mit LC50-Werten bis zu 5 mg/l eine höhere Toxizität besitzen.Im Hefe-Assay kann in mehreren Versuchswiederholungen das östrogene Potential von 4-NP (MW: 6,71x10-6 M), 4-t-OP (MW: 7,16x10-6 M) und BPA (MW: 4,88x10-6 M), sowie die antiandrogene Wirkung des Bisphenols (5,29x10-5 M) bestätigt werden. Im Gegensatz dazu können im Yeast Antiestrogen Screen zum ersten Mal Hinweise auf die antiöstrogene Wirkung von TCPP (MW: 6,86x10-5 M), Terbutryn (MW: 3,99x10-5 M), TDCPP (MW: 2,65x10-6 M) und TBP (MW: 2,28x10-5 M) aufgezeigt werden.TBP und TDCPP führen auch in der chronischen Exposition bei Potamopyrgus antipodarum zu einer Reduktion in der Embryonenzahl (mehrfach beobachtete NOEC beider Substanzen: 6,25 mg/kg), ein Effekt, der zunächst nicht von einer toxischen Wirkung unterschieden werden kann. Allerdings scheint sich ein antiöstrogener Wirkmechanismus auf die Schnecken bei den Versuchen zur Mischtoxizität zu bestätigen, da die gleichzeitige Exposition gegenüber BPA und 4-tOP zu einer geringfügigen Aufhebung des Effekts führt. Potamopyrgus reagiert ebenfalls mit einer Reduktion der Embryonenzahl bei der Exposition gegenüber AHTN (mehrfach beobachtete NOEC: 2 mg/kg), zeigt sich aber insensitiv gegenüber der Belastung mit Terbutryn.Die Exposition von Chironomus riparius gegenüber den verschiedenen Substanzen führt bis auf eine Ausnahme zu keinen signifikanten substanzbedingten Beeinträchtigungen. Einzig das s-Triazin Terbutryn verursacht eine hohe Mortalität mit einer NOEC (28 d) von 250 μg/kg. Eine Toxizität auf den Anneliden Lumbriculus variegatus zeigt sich lediglich bei derExposition gegenüber BPA (NOEC: 10 mg/kg; Biomasse, 28 d) und 4-NP (EC10: 6,88 mg/kg; 95% KI: 3,97-11,9; Reproduktion, 28 d). Die durchgeführten Versuche zur Toxizität von Mischungen zeigen eine größere Gefährdung auf als bei Vorliegen der Einzelsubstanzen in Konzentrationen unterhalb ihres Schwellenwertes zu vermuten wäre. Allerdings lassen sich die mit dem Hefe-Assay erzielten Ergebnisse aufgrund großer Variabilitäten zwischen den einzelnen Versuchswiederholungen nicht immer eindeutig mit Hilfe des additiven oder des unabhängigen Modells beschreiben, zeigen dabei jedoch trotzdem ein gegenüber den Einzelsubstanzergebnissen verändertes Risiko auf. Um diesem in der Risikobewertung Rechnung zu tragen, wird ein Verfahrensvorschlag entwickelt, in dem durch zusätzliche Sicherheitsfaktoren für PNECs ein Überschreiten des risikoanzeigenden Werts von 1 des PEC/PNEC-Quotienten einer Mischung verhindert werden kann.
Protein S-100B als Serummarker der zerebralen Schädigung bei pädiatrischen Schädel-Hirn-Verletzungen
(2009)
Protein S-100 ist ein Calcium-bindendes Protein, das die Aktivität seiner Zielproteine moduliert. Der Aufgabenbereich umfasst die Regulation von Zellwachstum und Zellstrukturbildung. Entdeckt wurde es im Jahre 1965 von B.W. Moore, der es erstmals aus Rinderhirn isolierte. Seinen Namen erhielt es aufgrund seiner Löslichkeit in 100% gesättigtem Ammoniumsulfat bei neutralem ph-Wert. Protein S-100 besteht aus mehreren Untereinheiten, von denen S-100B nur im Hirngewebe vorkommt, hauptsächlich im Zytosol von Gliazellen. Bei astroglialer Zerstörung und konsekutiver Störung der Blut-Hirn-Schranke können erhöhte Konzentrationen von Protein S-100B im Serum gemessen werden. Durch seine spezifische Herkunft besitzt Protein S-100B einen potentiellen Wert als biochemischer Marker einer strukturellen Hirnschädigung. Ziel dieser Studie ist die Überprüfung des posttraumatischen Protein S-100B Serumspiegels bezüglich seiner Korrelation mit dem Schweregrad kindlicher Schädel-Hirn-Verletzungen und deren Prognose. In Form einer prospektiven Studie wurden insgesamt 45 Kinder (23 Jungen und 22 Mädchen) zwischen 4 Monaten und 17 Jahren (Mittelwert 7,64 Jahre) mit Hirnverletzungen unterschiedlicher Schweregrade untersucht, bei denen innerhalb der ersten 20 posttraumatischen Stunden mittels eines immunoluminometrischen Assays die Protein S-100B Serumkonzentration bestimmt wurde. Der Normalbereich für Protein S-100B liegt bei < 0,15 µg/l. Werte zwischen 0,15 und 0,5 µg/l gelten als leichtgradig erhöht, Werte über 0,5 µg/l als deutlich erhöht. Die S-100B-Werte wurden mit den klinischen Daten und dem posttraumatischen Outcome (Nachbeobachtungszeit mindestens 6 Monate) korreliert. Die statistischen Signifikanzberechnungen erfolgten mittels des Fisher-Exact-Tests.Die gemessenen S-100B Werte lagen zwischen 0,05 und 3,05 µg/l (Mittelwert 0,46 µg/l). Die mittlere Latenzzeit der posttraumatischen Protein S-100B Bestimmung betrug 5 Stunden. 38 % der Kinder zeigten leichtgradige Erhöhungen (>= 0,2-0,5 µg/l), 29 % deutliche Erhöhungen (> 0,5 µg/l). Niedrige Punktwerte in der initialen Glasgow-Coma-Scale (GCS) bedeuteten im Mittel höhere Werte für Protein S-100B. Ein initialer GCS-Wert von unter 8 ging in allen Fällen mit S-100B Werten über 0,5 µg/l einher (p=0,005). In Fällen ohne Verlust des Bewusstseins, bzw. maximal einer leichten Eintrübung des Bewusstseins (Lange-Cosack I-II) lagen die S-100B Werte im Mittel niedriger als bei Vorliegen eines Bewusstseinsverlustes (III-IV). Ein Bewusstseinsverlust ging immer mit einem S-100B Wert von mindestens 0,2 µg/l einher (p=0,04), meist lag der Wert über 0,5 µg/l (p=0,015). 25 Kinder erhielten eine Computer- und /oder Magnetresonanztomographie. Hier zeigten sich erhöhte S-100B Werte vor allem bei schweren Kontusionen und Subduralblutungen. Den höchsten Wert (3,05 µg/l) wies ein Kind mit ausgedehnten diffusen axonalen Verletzungen auf. Bei 38 der 45 Patienten konnte nach einer durchschnittlichen Nachbeobachtungszeit von 27,5 Monaten das neurologische Outcome (Glasgow Outcome Scale, GOS) erhoben werden. 8 Kinder (21 %) wiesen neurologische Residuen auf, vor allem Koordinationsstörungen und Verlangsamungen im Sinne eines Psychosyndroms, 1 Kind verstarb im Akutverlauf an einem malignen Hirnödem. Die Kinder mit posttraumatischen Residuen / Behinderungen wiesen im Mittel tendenziell höhere Werte für Protein S-100B auf. Die unterschiedlichen Beschwerdebilder und Residualzustände nach leichten und schweren Schädel-Hirn-Verletzungen lassen sich anhand der etablierten klinischen, neurophysiologischen und neuroradiologischen Prognosemarker bislang nur bedingt vorhersagen. Die Ergebnisse dieser Untersuchung zeigen gute Korrelation des Serum S-100B Wertes mit der Schwere und Dauer der initialen Bewusstseinsstörung sowie dem Ausmaß der hirnparenchymatösen Läsionen. Die Aussagekraft bezüglich des posttraumatischen Outcomes ist aufgrund der Fallzahl und der zu einem großen Teil einbezogenen leichten Schädel-Hirn-Verletzungen begrenzt. Die Untersuchungsergebnisse unterstützen die bei Erwachsenen erhobenen Daten und zeigen, dass Protein S-100B auch im Kindesalter einen viel versprechenden Parameter zur Objektivierung einer akuten Hirnschädigung darstellt und bereits zu einem frühen posttraumatischen Zeitpunkt einen Beitrag zur Beurteilung des Schweregrades und der Prognose von Schädel-Hirn-Verletzungen leisten kann. Der posttraumatische Protein S-100B Serumwert bringt hier als biochemischer Marker eine zusätzliche Information und kann so bei der Einschätzung und Initiierung von diagnostischen, therapeutischen, rehabilitativen und Follow-up-Maßnahmen hilfreich sein.
Fragestellung Der Schutz der Kinder ist eine der wichtigsten Aufgaben der erwachsenen Bevölkerung. Besonders die Vermeidung und eine effiziente Therapie von schweren Schädel-Hirn-Traumen kann die Todesrate bei Kindern und Jugendlichen stark reduzieren. Ein besonderes Augenmerk ist dabei auf Verkehrsunfälle zu richten. Diese Unfälle sind für Kinder nach dem ersten Lebensjahr die weltweit häufigste Ursache für Tod oder ein neurologisches Defizit. Ziel dieser Studie ist das Aufzeigen von möglichen Risikofaktoren während des Behandlungsverlaufs, einer gesicherten Prognosestellung durch geeignete Befunde und einer Letalitätsanalyse bei Kindern und Jugendlichen mit einem schweren Schädel-Hirn-Trauma kombiniert mit einem letalen Ausgang. Hierbei sollen die Befunde der Patienten unabhängig von den Ergebnissen der Erwachsenen beleuchtet werden, um so den kindlichen Organismus genauer zu analysieren. Besonders wichtig in dieser Studie sind Prozesse und auslösende Faktoren, die das Versterben der Patienten beeinflussen. Eine besondere Bedeutung kommt der Korrelation von klinischen Befunden und einer Prognose der Letalitätswahrscheinlichkeit in dieser Studie zu. Methodik Im Rahmen dieser retrospektiven Studie wurden Patienten des Zentrums für Kinderheilkunde der Universität Frankfurt am Main mit Schädel-Hirn-Traumen und daraus folgendem Tod aus den Jahren 1979 bis 2002 untersucht. Insgesamt wurden 30 Kinder erfasst, 18 männliche und 12 weibliche, zwischen drei Monaten und 18 Jahren (Mittelwert 6,978 Jahre). Die Patienteninformationen wurden aus abteilungsinternen Aufzeichnungen, Berichten von anderen Krankenhäusern, Arztberichten, EEG-, AEP-, CT-Befunden sowie stationären und ambulanten Krankenblättern bezogen. Die Patientendaten wurden während des Behandlungsverlaufs zum besseren Überblick in drei Ergebnisgruppen eingeteilt und ausgewertet. Zum einen in die Ergebnisse am Unfallort, bei der Aufnahme im Krankenhaus und während des Krankenhausaufenthaltes. Ergebnisse Der relative Anteil der Patienten unter drei Jahren war erhöht. Je älter die Patienten waren, desto mehr männliche Patienten gab es. 70 Prozent der Kinder in dieser Studie verstarben innerhalb der ersten Woche. Die Zeitspanne vom Unfall bis zum Tod der Patienten betrug im Median vier Tage. Die durchschnittliche Latenzzeit bis zum Tod wurde im Durchschnitt mit 11,4 Tagen ermittelt. In den Unfallkategorien war die Kategorie „High Velocity Accident“ mit 76,76 Prozent die dominierende Unfallart. Zusätzlich zeigten die Patienten in dieser Kategorie die geringste Überlebensdauer bis zum Tod, besonders diejenigen, die aktiv am Straßenverkehr teilnahmen. 27 Patienten wurden am Unfallort anhand der Glasgow-Coma-Scale in die Gruppe der schweren Schädel-Hirn-Traumen eingeteilt (davon 19 Patienten mit nur drei Punkten), drei Kinder in die Gruppe der leichten. Bei der Aufnahmeuntersuchung befanden sich dann alle Patienten in der Gruppe der schweren Schädel-Hirn-Traumen. Zwölf Patienten mit einer zerebralen Hypoxie (zehn davon wurden reanimiert) wiesen eine stark verkürzte Latenzzeit gegenüber Patienten ohne Hypoxie bis zum Tod auf. Bei der Pupillenuntersuchung am Unfallort hatten fast alle Patienten erweiterte und lichtstarre Pupillen, nur drei Patienten zeigten einen physiologischen Pupillenbefund. Bis zur Aufnahmemuntersuchung verbesserte sich der Befund lediglich bei zwei Patienten, ausgelöst durch eine erfolgreiche Reanimation. Bei 19 Patienten wurde im Verlauf eine hypotherme Körpertemperatur gemessen, bei acht Kindern eine Körpertemperatur im normalen Bereich, zwei waren hypertherm. 13 Kinder zeigten bei der Aufnahmeuntersuchung im Krankenhaus einen ihrem Alter entsprechenden physiologischen Blutdruckwert, bei zwei Patienten wurde ein erhöhter Wert festgestellt. 15 Kinder wiesen einen systolischen Blutdruck unter 90 mmHg und somit eine Hypotonie auf. Die Latenzzeit bis zum Tod betrug 21,92 Tage bei einem physiologischen Blutdruck gegenüber 3,4 Tagen bei einer Hypotonie. Bei 18 Kindern wurde mindestens eine Schädelfraktur festgestellt. Die Schädelfrakturen verkürzten die Latenzzeit der Kinder nicht. Sieben Patienten hatten ein offenes Schädel-Hirn-Trauma, 23 ein geschlossenes. Alle Patienten wiesen negative Veränderungen im EEG auf. Sechs von 23 Patienten zeigten erhaltene AEPs, 14 Patienten den Ausfall der Welle III und/oder der Welle V und drei Patienten eine verzögerte Latenz der Welle III und/oder der Welle V mit tendenzieller Verschlechterung. Die niedrigsten Latenzzeiten besaßen die Patienten mit dem Ausfall der Welle III und/oder der Welle V. 28 Kinder erhielten eine Computertomografie (CT). Hier zeigte sich bei 26 Patienten in der ersten Untersuchung ein intrakranielles Hämatom, davon bei 21ein intrazerebrales Hämatom. Bei sechs Patienten wurde eine Mittelinienverschiebung beobachtet, bei 15 Patienten komprimierte und/oder nicht darstellbare basale Zisternen. Meist wurden mehrere Veränderungen kombiniert vorgefunden. Bei 20 Patienten wurden Hindruckwerte ermittelt, vier Patienten blieben innerhalb der ersten 48 Stunden nach dem Unfall unter 20 mmHg, dagegen 16 Kinder über 20 mmHg. Je höher in den ersten 48 Stunden der Hirndruck war, desto kürzer wurde die Latenzzeit bis zum Tod. Bei 22 Patienten wurde ein Hirnödem beobachtet, bei 18 Kindern schon zwei Stunden nach dem Unfall. Diskussion und Schlussfolgerung Es gibt ein Vielzahl von klinischen Untersuchungen und Befunden. In dieser Studie haben sich einige herauskristallisiert, die für eine sichere Prognosestellung wichtig sind. Ein besonders kritischer Zeitraum ist die erste Woche nach dem Unfall. Der „High Velocity Accident“ ist das Unfallmuster mit der geringsten Latenzzeit bis zum Tod der Patienten und mit einer hohen Sterblichkeit verbunden. Die Glasgow-Coma-Scale hat 24 Stunden nach dem Trauma einen höheren Aussagewert als initial. Bleibt der Wert in diesem Zeitraum unter fünf Punkten, ist mit einer sehr schlechten Prognose zu rechnen. Der Pupillenbefund gibt besonders bei einem niedrigen Glasgow-Coma-Scale-Wert für die Prognose des letalen Ausgangs eine zusätzliche Absicherung. Das EEG ist hingegen wenig aussagekräftig. Arterielle Hypotonie und Hypoxie sind Hauptursachen des sekundären Hirnschadens nach einem Schädel-Hirn-Trauma. Eine Vermeidung einer Hypotonie und der Hypoxie würde die Letalitätswahrscheinlichkeit senken. Das Vorhandensein einer Schädelfraktur zeigte keinen Einfluss auf die Prognose. Die AEP sind wegen der geringen Beeinflussung durch Medikamente für eine Verlaufprognose gut geeignet. Dabei spielt der Ausfall der Welle III und/oder der Welle V für einen schlechten Ausgang eine wichtige Rolle. Die Computertomografie zeigt sehr gut pathologische Veränderungen der Gehirnstrukturen und ist sowohl für die Einschätzung der primären, als auch sekundären Schäden geeignet. Auffallend in dieser Studie war die hohe Anzahl von Patienten mit intrakraniellen Hämatomen. Das Vorhandensein einer komprimierten und/oder nicht darstellbaren basalen Zisterne verschlechterte die Prognose wesentlich und verkürzte die Dauer bis zum Tod. Hirndruckwerte ab 20 mmHg innerhalb der ersten 48 Stunden erhöhen die Prognose für einen schlechten Ausgang, ab 60 mm Hg steigt die Letalitätswahrscheinlichkeit stark. Die Vermeidung eines Hirnödems könnte hohe Hirndruckwerte vermeiden. Die Prognose hängt somit nicht nur von der Primärschädigung des Gehirns ab, sondern auch von den sekundären Schädigungen und deren Komplikationen. Wegen der komplexen Strukturen des jungen menschlichen Körpers und vor allem des Gehirns ist auch heutzutage noch keine absolut sichere Prognosestellung möglich. Die Ergebnisse in dieser Studie können nur Anhaltspunkte für eine Prognose geben. Je mehr der beschriebenen pathologischen Befunde bei einem Patienten festgestellt werden, desto wahrscheinlicher ist ein letaler Ausgang.
Talentierte Nachwuchsspieler fördern, dieser Aufgabe nehmen sich sowohl Fußballverbände als auch Fußballvereine an. Vereine kommen dieser Aufgabe in ihren Vereinsjugendmannschaften nach; der DFB - als Dachverband des organisierten Fußballs in Deutschland - widmet sich seit 2002 im Rahmen seines Talentförderprogramms verstärkt diesem Aufgabenfeld. Wesentliche Schwerpunkte des DFB-Talentförderprogramms stellen das Erlernen und Festigen von technischen und individualtaktischen Elementen dar. Konzeptionell untermauert werden derartige Fördermaßnahmen durch die Ausbildungskonzeption des DFB. Diese beschäftigt sich neben dem systematischen technisch-taktischen und konditionellen Leistungsaufbau auch mit der Persönlichkeitsförderung talentierter Nachwuchsspieler. Ziel dieser Arbeit ist es, aufbauend auf bisherigen Untersuchungsergebnissen der Unterrichtswissenschaft diesbezügliche Möglichkeiten kooperativer Vermittlungsformen im Fußball-Juniorentraining zu beleuchten. So werden Zusammenhänge bzw. Perspektiven diskutiert und Effekte kooperativer Trainingsformen veranschaulicht. Im Rahmen der theoretischen Auseinandersetzung wird deutlich, dass die Fußballtechnik mit ihren charakteristischen Merkmalen auf der Schnittstelle zwischen rein fertigkeitsbezogenen und typisch taktischen Anforderungen liegt: Technik und Taktik verschmelzen demnach in der Spielsituation. Ein Techniktraining mit einer Zentrierung auf Bewegungsabläufe wird dieser Komplexität nicht gerecht. Entscheidend für die erfolgreiche Bewältigung einer Spielsituation sind neben verlaufsbezogenen Bewegungsmerkmalen auch Wahrnehmungs- und Entscheidungskomponenten sowie die Bewältigung von Druckkomponenten. In diesem Zusammenhang erscheint es lohnend, Fähigkeiten aufzubauen, die eine erfolgreiche Lösung des übergeordneten Problems – die Einsicht in Sinnzusammenhänge – ermöglichen (vgl. SINNING 2003; RIEPE 2000; SCHERER 1995). Die Einsicht in die Struktur (Zusammengehörigkeit) von Informationen, die vorher so nicht vorhanden war, stellt somit - neben der Förderung der Eigeninitiative und der Verantwortung für das eigene Lernen - die Intention kooperativer Trainingsformen im Fußball-Juniorentraining dar. Hierbei erscheinen insbesondere die Entwicklung eigener Ideen und Lösungen im Training und die daraus resultierende erfolgreiche Handlungsfähigkeit in Spielsituationen von Bedeutung. So werden im empirischen Arbeitsteil Auswirkungen kooperativer Trainingsformen auf das „Entscheidungsverhalten“ talentierter Nachwuchsspieler bzw. das „Effektverhalten individualtaktischer Aktionen“ analysiert. Gleichermaßen werden Effekte kooperativer Trainingsformen im Bereich der „Teamkompetenz“ überprüft. Es bleibt festzuhalten, dass es bei den kooperativ Trainierenden im Entscheidungsverhalten zu einer nachhaltigen (Intervall AT - RT) signifikanten Verbesserung kommt - bei traditionell trainierten Probanden ist ein diesbezüglicher Fortschritt im Rahmen dieser Untersuchung nicht zu beobachten. Gleichermaßen signifikant verbessert sich die Teamkompetenz (Solidaritätsfähigkeit) der kooperativ trainierenden Probanden unmittelbar im Anschluss an den Trainingszeitraum (Intervall ET - AT). Im Intervall zum RT tritt zudem keine signifikante Verschlechterung in der späten Phase des Lernprozesses auf. Diese Untersuchungsergebnisse stehen im Einklang mit bisherigen unterrichts- bzw. sportwissenschaftlichen Befunden (GRÖBEN und KRAUSS 2004; BÄHR et al. 2007) und unterstützen den im Theorieteil dieser Arbeit entwickelten Ansatz einer Implementierung kooperativer Trainingsformen in das Fußball-Juniorentraining. Hingegen erfährt das Effektverhalten individualtaktischer Aktionen - sprich die erfolgreiche Umsetzung eines Passes, Dribblings oder Torschusses - durch ein traditionelles Training unmittelbar (Intervall ET - AT) eine signifikante Verbesserung. Kooperative Trainingsformen erzielen in diesem Zusammenhang keinen vergleichbaren Effekt. Darüber hinaus lassen sich im Rahmen dieser Untersuchung - aufgrund des vorliegenden Stichprobeneffektes - keine validen Aussagen hinsichtlich der intergruppenspezifischen Entwicklung der Variablen „Entscheidungsverhalten“ und „Effektverhalten individualtaktischer Aktionen“ treffen. An dieser Stelle sei nochmals angemerkt, dass der vorliegende Stichprobeneffekt trotz eines umfassenden Parallelisierungsverfahrens (vgl. 3.4.1) zum Tragen kommt. Daher erscheint es bei weiterführenden Untersuchungen sinnvoll, sich im Rahmen des Parallelisierungsverfahren verstärkt mit der Qualität von Beobachtungs-/ Einteilungskriterien zu beschäftigen bzw. die Beobachtungen der Experten hinsichtlich ihrer Validität zu prüfen. Abschließend betrachtet, sollte es in Anbetracht der Ziele und Schwerpunkte, die im Rahmen der Talentförderung im Juniorenfußball eine Rolle spielen (vgl. DFB-Ausbildungskonzeption), weiterhin ein wissenschaftliches Anliegen sein, aufbauend auf den vorliegenden Befunden und Erhebungsinstrumenten (Bewertungsbogen zum Entscheidungsverhalten und Effektverhalten individualtaktischer Aktionen), Möglichkeiten kooperativer Trainingsformen im Fußball-Juniorentraining zu analysieren. Eine verstärkte Differenzierung zwischen „lernen“, „üben“ und „trainieren“, sollte in diesem Zusammenhang bei zukünftigen Forschungsarbeiten Berücksichtigung finden. Theoretische Begründungszusammenhänge sowie erste positive empirische Ergebnisse kooperativer Trainingsformen konnten mit Hilfe dieser Arbeit aufgezeigt werden.
Der Entwicklung eines Instrumentes, eines standardisierten schriftlichen Intensiv-Interviews zur Messung von Einstellungen zu Recht und Gesetz, werden in Teil A der Arbeit theoretische Überlegungen vorangestellt. Der in der Rechtswissenschaft zentrale und umstrittene Begriff „Recht“ wird nur in seiner aktuellen und allgemeinen Bedeutung aufgenommen, in einer allgemeinen Bedeutung wie sie von Laien erfasst wird. Der Begriff „Recht“ wird weiter eingegrenzt auf ein Normverständnis in strafrechtlicher Sicht.
Alltägliche Situationen aus verschiedenen Gebieten des Strafrechts (Fälle) sollen die „Items“ bilden, zu denen Jugendliche, Heranwachsende und junge Erwachsene aus unterschiedlichen Schichten der Bevölkerung und mit verschiedenem Bildungsstand ihre Auffassungen aufschreiben. Begriffe wie Recht, Norm, Moral, Einstellung, Meinung, Stereotyp, Vorurteil und auch Überlegungen zum Verständnis von Recht und Gesetz als „Wert“ werden aufgenommen und im Zusammenhang mit der Entwicklung eines neuen Forschungsverfahrens erörtert.
5 Hypothesen werden formuliert zu Einstellungen von Recht und Gesetz und zur Wert-Orientierung von Individuen.
Vielfältige Überlegungen zur Entwicklung der Items (der Fälle) des standardisierten schriftlichen Intensiv-Interviews und der den Befragten vorzulegenden Stufen-Antworten stehen an. Die zu den einzelnen Items vorgegebenen Stufen-Antworten sollen Normorientierung, Einstellungen zu Recht und Gesetz, in verschiedenem Ausmaß abbilden. Der Inhalt wenigstens einer Item-Stufen-Antwort entspricht der Norm und der Inhalt einer Antwort ist klar nicht normorientiert. Die zusätzlich formulierten alternativen Stufen-Antworten zwischen einer Antwort mit klarer Normorientierung und einer Antwort mit fehlender Normorientierung sind „mehr oder weniger normorientiert“, sie berücksichtigen Aspekte der Normorientierung. Jene werden dargelegt und diskutiert. Besonders beachtet wird die Punkt-Bewertung der entworfenen Stufen-Antworten. Jene bilden schließlich den Einstellungs-Score des Individuums, den „Messwert“, der Auskunft gibt über seine individuelle Normorientierung, seine Einstellung zu Strafrecht und Gesetz.
Es wird im Voraus festgelegt, welche „Summen-Scores“ eine „positive“ Einstellung, welche nur eine „neutrale“ und welche „Summen-Scores“ eine „negative“ Einstellung zu Recht und Gesetz abbilden.
Voruntersuchungen zum Verständnis der Items (der Fälle), eine Überprüfung der Item-Formulierungen, Untersuchungen zum Verständnis der Test-Instruktion und zur Durchführung des Verfahrens mit Hilfe von Befragungen von etwa 100 Jugendlichen und Erwachsenen aus unterschiedlichen sozialen Schichten und mit verschiedenem Bildungsgrad führen in 2006 schließlich zur Endfassung des standardisierten schriftlichen Intensiv-Interviews. Jenes wird dargestellt zusammen mit den entworfenen zusätzlichen Fragen zur Person der Untersuchungsteilnehmer.
Teil B der Arbeit beschreibt und diskutiert erste empirische Befragungen von 13 anfallenden Stichproben mit dem Intensiv-Interview, die in den Jahren 2006 bis 2010 mit 100 Jugendlichen und jungen Erwachsenen, Studierenden einer Universität oder Hochschule, Schülern der 9. Klasse einer Hauptschule und Schülern der 11. Klasse zweier Gymnasien durchgeführt wurden.
Die einzelnen Stichproben mit ihren Personmerkmalen werden charakterisiert.
Stets wird überprüft, ob die ermittelten Ergebnisse die formulierten Hypothesen eher unterstützen oder ob die Hypothesen mit den erhobenen Daten nicht begründet werden können.
Validierungsbemühungen zum Verfahren beziehen sich in den Stichproben 1-5 auch auf die Beantwortung einzelner Items. Sie überprüfen, welche Items die Befragten relativ ähnlich beantworten und zu welchen Items die Testpersonen in unterschiedlicher Weise Stellung nehmen.
Zu 13 anfallenden Stichproben wird gefragt: lassen sich mit dem neuen Verfahren Unterschiede in der Einstellung zu Recht und Gesetz zwischen den Befragten beschreiben? Haben weibliche Jugendliche, Heranwachsende und junge Erwachsene statistisch bedeutsam positivere Einstellung zu Recht und Gesetz als männliche? Können statistisch bedeutsame geschlechtsspezifische Differenzen bei berichteten Konflikten mit dem Gesetz nachgewiesen werden? Gibt es statistisch bedeutsame Unterschiede in den Einstellungen zu Recht und Gesetz zwischen Schülern der 9. Klasse Hauptschule, Schülern der 11. Klasse Gymnasium und einer homogenen Stichprobe von Studierenden einer Universität oder Hochschule?
Zusätzlich erhoben werden die religiöse und politische Orientierung der Probanden.
Jene werden in ihrer Beziehung zu den Einstellungen zu Recht und Gesetz untersucht und verglichen.
Zur Wert-Einstellung der Probanden wird mit einem dafür entworfenen Verfahren untersucht, welche Position erhält der Wert-Bereich „Freiheit, Rechtssicherheit, Gleichheit vor dem Gesetz“ im Vergleich zu neun weiteren Wert-Bereichen in den drei Status-Gruppen?
Das Ziel dieser Arbeit ist eine Darstellung der Etablierung des Films im Bereich der Medizin auf Universitätsebene am Beispiel von Prof. Karl Kleist, Leiter der Psychiatrie in Frankfurt am Main von 1920 bis 1950. Als Primärquellen wurden Akten, Briefe und Filme der Frankfurter Psychiatrie aus der damaligen Zeit gesichtet und ausgewertet. Zusammen mit den Sekundärquellen über Kleist und der Darstellung der politischen Rahmenbedingungen in diesem Zeitraum bildet dies die Grundlage der hier vorliegenden Arbeit. Kleist wurde am 31.Januar 1879 in Mühlhausen im Elsass geboren. Nach dem Medizinstudium in Straßburg, Heidelberg, Berlin und München begann er seine Arbeit 1903 als Assistenzarzt in Halle. Hier lernte er Carl Wernicke kennen, der ihn in seinem weiteren wissenschaftlichen Denken und Vorgehen stark prägte. Es entstand eine neue wissenschaftliche Schule, später bekannt als Wernicke- Kleist- Leonhard- Schule. Nach seiner fünfjährigen Assistenzarztzeit in Halle arbeitete er vorübergehend an Edingers Neurologischem Institut in Frankfurt am Main und im hirnpathologischanatomischen Laboratorium Alzheimers in München innerhalb der Klinik von Emil Kraepelin. Danach wechselte er als Oberarzt an die Nervenklinik in Erlangen, wo er bis 1914 arbeitete. Während des ersten Weltkrieges wurde er in einem Kriegslazarett eingesetzt. Dort sammelte er viele Erfahrungen mit Hirnverletzten. 1916 wurde er Direktor der Psychiatrie in Rostock. 1920 folgte er einem Ruf nach Frankfurt am Main. Kleist wurde Leiter der Städtischen und Universitätsklinik für Gemüts- und Nervenkranke in Frankfurt am Main. Auch nach seiner Emeritierung 1950 war er dort weiter wissenschaftlich tätig. Während der Zeit in Frankfurt am Main förderte er den Film als Lehr- und Forschungsmittel. Zu Beginn wurde er von privaten Stiftungen gefördert, später baute er einen Kontakt zum Medizinisch-Kinematographischen Universitätsinstitut in Berlin auf. Dieses arbeitete eng mit dem Verlag Wissenschaftlicher Filme zusammen. Mit Hilfe dieses Verlages stellte er viele Filme her; als Gegenleistung bekam der Verlag unter anderem die Negative seiner Aufnahmen. Nach dem Konkurs des Verlages kaufte die Deutsche Gesellschaft für wissenschaftliche Filme einen Großteil der Konkursmasse und damit auch Kleists Filme auf. Aufgrund der wirtschaftlichen Verhältnisse konnte das Unternehmen jedoch nicht florieren. Kleist wollte seine aufgenommenen Filme aber wissenschaftlich nutzbar machen und ein umfassendes Archiv von psychiatrischen und neurologischen Filmen erstellen. Kaufen konnte er das Material aufgrund mangelnder finanzieller Möglichkeiten nicht. Er schaffte es allerdings, seine Filme bei der Deutschen Gesellschaft für wissenschaftliche Filme zu vereinen und sie teilweise wissenschaftlich zu nutzen. Bald darauf wurden diese Bestände jedoch von der neu gegründeten Reichsstelle für den Unterrichtsfilm übernommen. Einerseits entsprach diese Zentralisierung Kleists Vorstellungen in Bezug auf eine bessere Übersicht und Nutzung der Filme seines Fachgebietes, andererseits stellte er aber ein fragwürdiges wissenschaftliches Interesse der Reichsstelle für den Unterrichtsfilm fest. Nach dem Krieg erlangte er über viele Umwege den Großteil seiner Filme zurück. Darunter befand sich der in dieser Arbeit exemplarisch analysierte Katatoniefilm. Die Fertigstellung der Filme benötigte damals oft Jahre. Wissenschaftliche Filme mit einer Länge von 15-20 Minuten mit mehreren Sequenzen benötigten bis zur Fertigstellung teilweise über zehn Jahre. Die Gründe hierfür waren vielschichtig. Abgesehen von den technischen Problemen waren Aufnahmen aufwändig und teuer. In die Planung mussten sehr viele Ressourcen investiert werden. Patienten mit seltenen Krankheiten waren für Aufnahmen nicht immer verfügbar und die wirtschaftlichen und politischen Gegebenheiten wie Wirtschaftsdepression und Krieg verminderten die Realisationschancen. Trotz dieser widrigen Umstände schaffte es Kleist eine beachtliche Anzahl an Filmen herzustellen und das Filmwesen zu fördern. Prof. Karl Kleist war ein Gründer des psychiatrischen und neurologischen Films. Er hatte das große Ganze im Blick und strebte stets danach seine Ideale auch im Detail zu verwirklichen.
Zur Rolle der Typ-I-Interferone in der Abwehr von viralen Infektionen des zentralen Nervensystems
(2007)
Das zentrale Nervensystem (ZNS) bildet eine einzigartige Umgebung für Immunantworten, da Neuronen eine essentielle und in weiten Teilen nicht-erneuerbare Zellpopulation bilden. Virale Infektionen des ZNS und lokale anti-virale Immunantworten können zu dem Verlust von Neuronen und somit zu katastrophalen Erkrankungen führen. Unter normalen Bedingungen ist das ZNS weitgehend von der Kontrolle durch das Immunsystem ausgeschlossen. In diesem Zusammenhang wurde das ZNS oft auch als „immunprivilegiert“ bezeichnet. Dieses Konzept musste in den letzten Jahren revidiert werden, da es sich gezeigt hat, dass das ZNS nicht völlig vom Immungeschehen isoliert ist. Wichtige Mediatoren antiviraler Immunantworten sind die Typ I Interferone (IFN). Die verschiedenen Typ I IFN binden an einen gemeinsamen Rezeptor, den Typ I Interferon-rezeptor (IFNAR). Die Bedeutung von Typ I IFN Antworten für die Kontrolle viraler Infektionen wurde besonders eindrucksvoll mit IFNAR-defizienten Mäusen (IFNAR-/-) gezeigt. Nach Infektion mit dem neurotropen Vesikulären Stomatitis Virus (VSV) führt das Fehlen des IFNAR zu einer stark erhöhten Empfänglichkeit für tödlich verlaufende Infektionen. In allen Organen und besonders im ZNS von VSV infizierten IFNAR-/- Tieren fanden sich stark erhöhte Virusmengen. Um zu untersuchen, ob die VSV-Infektion des zentralen Nervensystems in IFNAR-/- Mäusen in erster Linie auf ein Versagen der peripheren Immunität oder des IFN Systems innerhalb des ZNS zurückzuführen ist, wurden mittels der Cre loxP Tech-nologie Mäuse hergestellt, die auf allen peripheren Zellen IFNAR exprimieren, während die Neuronen des ZNS IFNAR defizient sind (NesCre+/-IFNARflox/flox). Nach intranasaler VSV Infektion zeigten NesCre+/-IFNARflox/flox Mäuse zunächst keine Krankheitssymptome. Nach 5 bis 6 Tagen traten aber aufsteigende und halbseitige Lähmungen auf, so dass die infizierten Tiere verstärkt im Kreis liefen und schließlich verstarben. Im Vergleich dazu verstarben IFNAR-/- Mäuse bereits nach 2 bis 3 Tagen während normale C57BL/6 Tiere nach Infektion keine Symptome zeigten und überlebten. Der beobachtete Krankheitsverlauf lässt in den IFNAR-/- Mäuse auf ein Multiorganversagen als Todesursache schließen. 3 und 6 Tage nach Infektion konnte in den Organen von C57BL/6 Tieren kein Virus reisoliert werden. In den NesCre+/ IFNARflox/flox Tieren fanden sich zum Todeszeitpunkt nur im Gehirn Viruspar-tikel, während alle anderen Organe virusfrei waren. Die Virustiter im Hirn waren im Vergleich zu den IFNAR-/- Mäusen 10- bis 100-fach erhöht. In den anderen Organen und im Blut sind keine Viruspartikel nachweisbar. Dieser Befund deutete gemeinsam mit den beobachteten Krankheitsverläufen auf eine neuropathologische Symptomatik hin, bei der es wahrscheinlich zu einer VSV-Infektion des Hirnstammes kam. Die Analyse einzelner Regionen des ZNS zeigte in IFNAR-/- Tieren, dass 2 Tage nach Infektion in allen Regionen des ZNS signifikante Virusmengen zu finden waren. In den NesCre+/-IFNARflox/flox und den C57BL/6 Tieren fanden sich zu diesem Zeitpunkt nur im Riechhirn (Bulbus olfactorius) signifikante Virustiter. In den C57BL/6 Tieren blieb das Virus auf diese Region beschränkt und wurde dort innerhalb von 6 Tagen eliminiert. In den NesCre+/-IFNARflox/flox Tieren kam es in den folgenden Tagen jedoch zu einer fortschreitenden Infektion des ZNS, und auch das Großhirn, das Kleinhirn, der Hirn-stamm und das Rückenmark zeigten hohe Virustiter. In der Induktion peripherer Immunantworten unterschieden sich NesCre+/-IFNARflox/flox und C57BL/6 Mäuse nicht. In den WT Tieren kam es im Gegensatz zu den NesCre+/ IFNARflox/flox und IFNAR-/- Tieren innerhalb von 48 Stunden nach Infektion im Riechhirn zu einer Typ I IFN abhängigen Phosphorylierung von STAT-1, einer Komponente des IFNAR-Signaltransduktionsweges. Alles deutet darauf hin, dass die Induktion geringer Mengen Typ I IFN innerhalb des Riechhirns notwendig ist, um Im-munantworten zu aktivieren, die ein Übergreifen der Virusinfektion auf andere Regio-nen des ZNS verhindern. Eine funktionierende Immunität in der Peripherie und die Blut-Hirn-Schranke scheinen nicht ausreichend zu sein, um eine Infektion des ZNS mit VSV zu verhindern. Stattdessen muss es zur Aktivierung von IFN-abhängigen Mechanismen innerhalb des Riechhirns kommen, die ein Übergreifen der VSV Infektion auf andere Hirnregionen verhindert und zur Elimination von VSV im Riechhirn beiträgt.
Im Kapitel 1 "Einleitung" wird aufgezeigt, wie die rasante technologische Entwicklung der Mikroelektronik nicht nur die Mikroskopie vorantreibt, sondern auch anderen, neuen Verfahren, wie z. B. dem Laser Scanning Mikroskop, zum Durchbruch verhilft. Damit verbunden ist ein Bedarf an neuen, geeigneten Messverfahren. Dazu stellt diese Arbeit ein neues, im Rahmen einer linearen Näherung arbeitendes, dreidimensionales Messverfahren vor, und demonstriert es am Beispiel des Lichtmikroskops im Hellfelddurchlichtbetrieb, wobei hier die 3. Dimension durch die Aufnahme einer Fokusserie entsteht. Im Kapitel 2 "Modellbildung" wird zuerst ein detailliertes, physikalisches Modell des experimentellen Aufbaus gebildet, um darauf aufbauend ein dreidimensionales, system-theoretisches Modell anzufertigen, anhand dessen das neue Messverfahren erarbeitet werden kann. Dabei wird auch die Berechnung der dreidimensionalen Übertragungsfunktionen des Lichtmikroskops für die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter beschrieben. Innerhalb des Kapitels 3 "Messverfahren" werden im Kapitel 3.1 zunächst die bekannten Verfahren skizziert. Anschließend, dies ist der Kern der Arbeit, wird im Kapitel 3.2 das neue Messverfahren beschrieben. Es verwendet als Anregung zweidimensionales Rauschen, hier ein Rauschen um eine Ebene senkrecht zur optischen Achse. Das Verfahren wird zunächst für absorbierende Objekte, anschließend auch für Phasenobjekte ausgearbeitet, und dabei experimentell demonstriert. Von zentraler Beutung ist, dass das neue Messverfahren in der Lage ist, auch die Phase der dreidimensionalen Übertragungsfunktion aus den Bildern der Rauschanregung zu berechnen, falls die Übertragung durch die Aufnahmeeinheit gewisse, häufig bei einem vernachlässigbaren Fehler vorliegende, Symmetrieeigenschaften besitzt. Es werden verschiedene Fälle von Symmetrieeigenschaften berücksichtigt, um unterschiedliche experimentelle Gegebenheiten und die drei Fälle absorbierende Objekte, Phasenobjekte und transparente Selbstleuchter abzudecken. Das Kapitel 4 "Messungen" vergleicht die mit dem neuen Messverfahren, mit einem bekannten Messverfahren und durch Berechnung ermittelten Übertragungseigenschaften auch bei Modifikationen des Strahlengangs durch Einfügen von Zentralblenden in die Pupille des Objektivs und in die Pupille des Kondensors. Die auf unterschiedlichen Wegen ermittelten Übertragungseigenschaften werden miteinander verglichen. Der Vergleich veranschaulicht die Leistungsfähigkeit des neuen Messverfahrens. Das Kapitel 5 "Die Bildgewinnung" stellt verschiedene, mehr oder weniger bekannte Ansätze zur Nutzung des vorgestellten Messverfahrens zusammen, darunter vor allem auch die Wiener-Inversfilterung.
Die Endothelzellmigration ist ein wesentlicher Prozess für die Angiogenese, Neovaskularisierung und Reendothelialisierung. Im ersten Teil der Arbeit wurde der Effekt von Schubspannung auf die Endothelzellmigration, die Beteiligung der Integrine und der Integrin-abhängigen Signaltransduktionswege mittels "scratched wound assay" untersucht. Die Schubspannungs-induzierte Endothelzellmigration war signifikant durch Integrin-blockierende RGD-Peptide oder neutralisierende Antikörper gegen die Integrin-Untereinheiten α5β1 reduziert, wohingegen Antikörper gegen αvβ3 oder α2β1 keinen Effekt hatten. Die Integrin-Expression von α5 und β1 war besonders in der migrierenden Zellfront der Wunde erhöht. Passend zu der wichtigen Rolle der Integrine in der Schubspannungs-induzierten Endothelzellmigration hemmte eine Blockade des Integrin-assoziierten Adapterproteins Shc durch eine dominant negative Mutante die Schubspannungs-induzierte Zellmigration. Zusätzlich konnte gezeigt werden, dass die pharmakologische Hemmung der MAP Kinase ERK1/2 oder der PI3K die Schubspannungs-induzierte Endothelzellmigration verhinderte. Im Gegensatz dazu hatte die Hemmung der NO-Synthase keinen Effekt.
Im zweiten Teil der Arbeit wurde die VEGF-vermittelte Endothelzellmigration untersucht. Im Gegensatz zu den Befunden, dass laminare Schubspannung NO-unabhängig die Endothelzellmigration stimuliert, konnte die VEGF-vermittelte Endothelzellmigration durch NOS-Inhibitoren blockiert werden. Des weiteren wurde die Beteiligung der Akt-mediierten eNOS Phosphorylierung in der VEGF- induzierten Endothelzellmigration ebenfalls mittels "scratched wound assay" untersucht, da bekannt ist, dass Akt die eNOS über eine Phosphorylierung an Serin 1177 aktivieren kann. Die Überexpression einer dominant-negativen Akt-Mutante verhindert die VEGF-induzierte Zellmigration. Im Gegensatz dazu stimulierte die Überexpression einer konstitutiv-aktiven Akt-Mutante die Endothelzellmigration, auch in Abwesenheit von VEGF. Die Überexpression eines phosphomimetischen eNOS-Konstruktes (S1177D) führte ebenfalls zu einer verstärkten Zellmigration, wohingegen die nicht mehr phosphorylierbare und somit nicht mehr aktivierbare eNOS-Mutante (S1177A) die VEGF-induzierte Endothelzellmigration komplett hemmte.
Zusammengefasst zeigen diese Daten, dass die VEGF- und Schubspannungsinduzierte Endothelzellmigration wesentlich zu der beschleunigten Reendothelialisierung von verletztem Endothel beiträgt, wie es beispielsweise nach einer Ballondilatation der Fall ist. Es konnte gezeigt werden, dass laminarer Blutfluss über die Integrine α5β1 NO-unabhängig die Migration mediiert und dass der Wachstumsfaktor VEGF über die Protein Kinase Akt NO-abhängig die Endothelzellmigration stimuliert.
Increased intraindividual variability of reaction time is a main cognitive feature of Attention Deficit Hyperactivity Disorder. It is associated with deficits in sustained attention. While traditionally, mean and variance were used to characterize reaction time distributions, the ex-gaussian distributional model allows a more sophisticated analysis of reaction time series. Reaction time distributions are separated in a normal and an exponential component.
The present study investigates the impact of incentives on reaction time variability in a sample of adult ADHD patients. ADHD is associated with increased Tau, the output parameter of the ex-gaussian model characterizing the exponential part of the distribution. Tau is linked to “lapses of attention”, which are more frequent in ADHD patients. It is known that tau can be modulated in ADHD Patients. It was therefore postulated that tau would be higher in ADHD Patients in a paradigm where quick answers were required but could be modulated by monetary incentives. In addition, the effect of “delay discounting”, which is more distinct in ADHD patients, on reaction time variability was investigated. Eventually, the association of variability measures with strength of ADHD symptoms was tested.
To this end, reaction time distributions of 62 adult ADHD patients and 45 healthy controls from two different reaction time paradigms were analyzed. The monetary incentive delay task, by comprehending a control – and a win condition, allows an investigation of the effect of incentives on reaction times. Subjects had to react as fast as possible by keypress to a stimulus, after a cue signaled a possible monetary reward. During the Delay-Discounting-Task, subjects had to choose between sooner, but smaller, and higher delayed monetary rewards, during which they could use as much time for consideration as desired.
Results show that an increased Tau in the control condition of the monetary- incentive-delay-task could be replicated, while a distinct influence of the win condition emerged. Subjects with ADHD showed an improvement of Tau in the win condition even below the level of healthy controls. However, they showed increased variability of the “regular” responses around the mean of the normal component of the distribution, represented by sigma. Moreover, it was indicated by trend a higher reaction time variability in ADHD patients during choices of delayed rewards. Tau was associated the current symptom strength as well as with the strength of ADHD-Symptoms during childhood, assessed by questionnaire.
While the present results could have implications for etiological models of the disease, they may also contribute to the development of novel diagnostic methods. In advanced studies, neural correlates of sophisticated measures of reaction time variability should be investigated. Furthermore, they should be associated with genetic risk factors with regard to possible endophenotypes. Possible implications for clinical handling of patients should be explored.
Zielsetzung dieser Arbeit war die Klärung der Frage inwieweit Schlafstörungen, die schon während der Trinkphase auftreten, in einem Zusammenhang mit Schlafstörungen im Entzug stehen. Ebenso sollte untersucht werden, ob Schlafstörungen in der Trinkphase eine Vorhersage über die Schwere des Entzugs gestatten und damit als Indikator für den Entgiftungsverlauf und möglicher Komplikation dienen können. Der Anspruch dieser Arbeit war dabei, die Grundlagen für die Entwicklung eines Instrumentariums für die Indikationsstellung stationäreversus ambulante Entgiftungstherapie zu schaffen. Zur Klärung der Fragen wurden im Rahmen einer explorativen Untersuchung Patienten befragt und klinisch- neurologisch sowie labortechnisch untersucht. Die Stichprobe wurde rekrutiert aus konsekutiv im Zeitraum von Juni 2002 bis August 2003 zur Entgiftung im Zentrum der Psychiatrie des Klinikums der J.W. Goethe- Universität Frankfurt aufgenommenen Patienten. Sie umfasste 100 Alkoholkranke, die die ICD-10 Kriterien für eine Alkoholabhängigkeit (Dilling et al., 2000) erfüllten. Ausschlußkriterium war hierbei eine Verweildauer von weniger als 72 Stunden. Eine weitere Voraussetzung war die Fähigkeit und die freiwillige Bereitschaft, an einer in etwa insgesamt 30minütigen Befragung teilzunehmen. Für die Untersuchung wurde ein spezieller Fragenkatalog aus 5 unterschiedlichen Fragebögen erstellt. Die Antwortkategorien waren abgestufte Antworten, sowie größtenteils Multiple- Choice- Fragen. Lediglich die Anamnese wurde anhand eines standardisierten Anamnesebogens in offener Frageform erfasst. Es wurden soziodemographische Daten sowie Daten zum bisherigen Verlauf der Alkoholerkrankung und der Schlafqualität erhoben.
Wie andere Vögel auch, verfügen Hühner über zwei verschiedene Magnetfeldrezeptoren. In der vorliegenden Arbeit werden diese beiden Rezeptoren, vor allem unter dem Aspekt Verhaltensontogenie eingehender untersucht. Meine Ergebnisse werden durch histologische Untersuchungen gestützt. Ich untersuchte zwei Hühnerrassen, einen braunen und einen weißen Legehuhn Stamm. Mit der Standardmethode konnte ich die Befunde der Literatur bestätigen. Zur Untersuchung des Magnetkompasses im Auge, habe ich Hühner darauf trainiert einen roten Tischtennisball, auf den sie geprägt wurden, in einer bestimmten magnetischen Richtung zu suchen. Im unbelohnten“ Test ist das Magnetfeld um 90 Grad gedreht, so dass der magnetische Norden nun im geographischen Osten liegt. Die braunen Hühner benutzen den Magnetkompass zum Lösen der gestellten Aufgabe, die weißen Hühner wählen zufällig eine Richtung. Eine Veränderung der Trainingsmethode, ein Training im gedrehten Magnetfeld und eine „Bestrafung“, haben das Ergebnis verändert. Die weißen Hühner sind nun in der Lage, die magnetisch richtige Richtung zu finden, die braunen Hühner reagieren verängstigt und wählen nur zufällig eine Richtung. Beide Hühnerrassen können also - unter verschiedenen Voraussetzungen - einen magnetischen Kompass für die Orientierung benutzen.
Die akute myeloische Leukämie (AML) ist charakterisiert durch einen Differenzierungsblock sowie aberrante Selbsterneuerung („self-renewal“) hämatopoetischer Vorläuferzellen im Knochenmark (Grignani, 1993). Bei Patienten mit akuter Promyelozyten-Leukämie (APL), einem Subtyp der AML, bezeichnet als M3 gemäß FAB(„French-American-British“)-Klassifikation, ist dieser Phänotyp induziert durch die spezifischen Leukämie-assoziierten chromosomalen Translokationen t(15;17) sowie t(11/17). Beide involvieren einen identischen Anteil des Retinsäure-Rezeptors Alpha (RAR-Alpha) und jeweils entweder Gene der Promyelozyten-Leukämie (PML) oder promyelozytäre Zinkfinger (PLZF). Durch homologe Oligomerisierung, vermittelt durch die PCC(“coiled-coil”)-Domäne beim PML (Grignani, 1999) und die BTB/POZDomäne beim PLZF (Benedetti, 1997), formieren die Fusionsproteine PML/RAR und PLZF/RAR-Alpha in vivo HMW(“high molecular weight“)-Komplexe (Melnick, 1999). Im Vergleich zum RAR-Alpha von Wildtyp-Zellen zeigen diese erhöhte Affinität zu “Histone-Deacetylase-Recruiting-Nuclear- Corepressor”-Komplexen, was über aberrante Rekrutierung der Histon- Deazetylase zu konstitutiver Hypoazetylierung der Histone und schließlich zur Blockade der Transkription von Genen, die für eine Ausdifferenzierung von hämatopoetischen Vorläuferzellen bedeutsam sind, führt. Gegenstand der vorliegenden Dissertation ist das molekulare Targeting der Oligomerisierungsdomänen von PML/RAR-Alpha und PLZF/RAR-Alpha in vitro. Hierfür werden retrovirale Vektoren mit artifiziellen Fusionsgenen kloniert. Diese bestehen aus jeweils PCC-ABL oder POZ-ABL, welche sich aus der ABLKinase des Philadelphia-Chromosoms BCR/ABL und den spezifischen Oligomerisierungsdomänen von PML/RAR-Alpha und PLZF/RAR-Alpha zusammensetzen sowie den Peptiden PCC und POZ mit analogen Strukturen zu diesen Domänen. Fusionen der ABL-Kinase mit den Oligomerisierungsdomänen von PML und PLZF führen wie bei BCR (Beissert, 2003) zur konstitutiven ABLAktivität und vermitteln IL-3-unabhängiges Wachstum von Ba/F3-Zellen (murine Pro-B-Zelllinie). Die jeweils koexprimierten Peptide lagern sich an die analogen Proteinstrukturen von PCC-ABL und POZ-ABL an und stören deren homologe Oligomerisierung, was die IL-3-Unabhängigkeit gänzlich aufhebt. Dies wird über Wachstumskurven, Durchflusszytometrie (FACS) und Westernblot gezeigt. Folgend werden Vektoren zur Koexpression der kompletten APLcharakterisierenden Fusionsgene PML/RAR-Alpha und PLZF/RAR-Alpha zusammen mit identischen Peptiden kloniert, um mit diesen Sca1+/lin--selektionierte, murine, hämatopoetische Stammzellen zu infizieren. Deren Differenzierungsgrad wird über Zählung der Kolonien-formenden Einheiten (“Colony Forming Units” - CFUs), über deren Kolonie-Morphologie, deren Zytologie sowie Stammzell- und Differenzierungsoberflächenmarker bestimmt. Die Kontrollen mit alleiniger Expression der Fusionsproteine sowie zusammen mit vertauschten Peptiden zeigen die bekannte Morphologie von Promyelozyten, während die Koexpression der interferierenden Peptide zu deutlich akzelerierter Ausdifferenzierung führt. Eine erhöhte Replating-Effizienz durch die aberrante Fähigkeit zur Selbsterneuerung, eine typische Eigenschaften leukämischer Blasten, wird unter Einfluss interferierender Peptide nicht beobachtet. Hierfür wird ursächlich eine Störung der HMW-Komplex-Bildung beschrieben. Die Fusionsproteine PML/RAR-Alpha und PLZF/RAR-Alpha werden durch dieses Targeting über Westernblot nicht mehr nachgewiesen und somit als proteasomal degradiert angenommen. Das Vorliegen der Fusionsgene von PML/RAR-Alpha und PLZF/RAR-Alpha in den bei diesen Experimenten verwendeten Zellen kann auf RNA-Ebene über RT-PCR gezeigt werden. Zusammenfassend beschreibt die Koexpression von spezifischen Peptiden, die mit Oligomerisierungsdomänen von Fusionsproteinen, wie hier PML/RAR-Alpha und PLZF/RAR-Alpha, interferieren, einen neuen, vielversprechenden Ansatz bei der Therapie von Leukämien.
Diese Arbeit beschäftigt sich mit der türkischen Musikpolitik in der Zeit von Atatürk und seinem Auftrag insbesondere an den Komponisten, Ahmed Adnan Saygun, im Rahmen der vielfältigen Reformen in der jungen türkischen Republik, eine zeitgenössische türkische Kunstmusik zu schaffen. Mit dem Begriff des Kulturtransfers wird die Umsetzung von Atatürks Musikpolitik beschrieben, der auf die Entwicklung der Musik im 19. Jahrhundert, dem Zeitalter des sogenannten Nationalismus, zurückgreift und mit dem Kulturtransfer anderer Nationen verglichen wurde. Neben Saygun wurde auch das Wirken von vier anderen türkischen Komponisten, die mit Saygun die sogenannten ‚Türkischen Fünf‘ bildeten, erwähnt, die diesen Auftrag Atatürks sehr unterschiedlich umsetzten in einer Zeit der gesellschaftlichen Veränderungen und des ‚Kulturkampfs‘. In diesem Zusammenhang wurden die fünf Sinfonien von Saygun analysiert, der als ein Vorbild und Pionier fast aller Arten türkisch-klassischer Musik im Rahmen dieser musikalischen Revolution angesehen werden kann.
Saygun hat in Zusammenarbeit mit Béla Bartók türkische Volkslieder aufgenommen, verschriftlicht und systematisiert. In dieser Arbeit wurde daher untersucht, wie Saygun, der die türkische Kunst- und Volksmusik sowie in Paris die westeuropäische klassische Musik studiert hat, diese mit Mitteln klassischer Musikformen verbindet. Anhand der fünf Sinfonien von Ahmed Adnan Saygun wird gezeigt, dass er nicht nur als Komponist, sondern auch als Musikethnologe eine führende Rolle in der zeitgenössischen türkischen Kunstmusik übernahm und über den Kulturtransfer hinaus eine eigene ‚musikalische Sprache‘ entwickelte.
Eine der wichtigsten Quellen dieser Arbeit sind die handschriftlichen Partituren der Sinfonien und die Originalartikel von Ahmed Adnan Saygun, insbesondere Sayguns handgeschriebene Artikel ‚Orkestra‘ (dt.: Orchester) und die Artikelsammlung ‚Yalan‘ (dt.: Lüge), die in die deutsche Sprache übersetzt wurden. Als Ergebnisse der Analyse und Interpretation dieser und anderer Quellen, konnten Methoden aufgezeigt werden, die in Sayguns Werke und insbesondere in seinen Sinfonien in rhythmischen, melodischen, harmonischen und motivisch-thematischen Strukturkonstruktionen verwendet und als Beispiele einer zeitgenössischen türkischen Kunstmusik interpretiert werden. Dabei wurde herausgearbeitet, wie Saygun Elemente der türkischen Kunst- und Volksmusik verwendete, diese zunächst in tradierte Formen westeuropäischer klassischer Musik einbettete, um unter Hinzuziehung von eigenen kunstphilosophischen Ansätzen eine Form von ‚universaler Musik‘ zu kreieren.
Situierte Kritik: Modelle kritischer Praxis in Hermeneutik, Poststrukturalismus und Neopragmatismus
(2008)
Wie ist Kritik an sozialen Verhältnissen möglich? Welches sind ihre Bedingungen, ihre Verfahren und ihre Grenzen? Diese Studie konturiert den Spielraum kritischer Praxis, indem sie die Aspekte der Analyse, Evaluation und Transformation gesellschaftlicher Wirklichkeit mit Blick auf Ansätze hermeneutischer, poststrukturalistischer und neopragmatistischer Philosophie (insbesondere von Gadamer, Butler und Rorty) expliziert. Aufgrund der sozialen Konstitution von Subjektivität, Rationalität und Normativität kann Kritik dabei nicht mit Bezug auf universelle überzeitliche Maßstäbe erläutert werden, sondern als ‚situierte Kritik‘, die ihre Ausgangs- und Orientierungspunkte in den herrschenden Verhältnissen selbst findet.
Wasserstoffbrücken als strukturbildendes Element : Synthese und Berechnung supramolekularer Komplexe
(2004)
Die nicht-kovalente Synthese sowie die Berechnung der supramolekularen Komplexe wurden anhand dreier unterschiedlicher Stoffklassen demonstriert. Ziel war es, supramolekulare Dimere zu kristallisieren, die durch zwei Wasserstoffbrücken zusammengehalten werden. Die zuerst untersuchten Indol-Derivate waren potentiell selbstkomplementär. Während der Donor im starren Indol-Ring lag, befand sich der Akzeptor in der Seitenkette, was zu konformationell flexiblen Verbindungen führte. Durch Variation des Abstandes von Donor und Akzeptor, was einer Verlängerung der Seitenkette durch zusätzliche CH2-Gruppen entsprach, sollte herausgefunden werden, bei welcher geometrischen Anordnung dimere Komplexe entstehen Die Ergebnisse zeigten, daß die gewünschten Dimere erst bei einer Kettenlänge von drei CH2-Gruppen um Kristall zu beobachten waren. Diese konformationell flexiblen Verbindungen wiesen somit große Unterschiede zwischen berechneter und realer Komplexgeometrie auf, die darauf zurückzuführen sind, daß im Kristall eine Vielzahl von Molekülen wechselwirken, während in der Rechnung mit dem Kraftfeldprogramm MOMO nur zwei Moleküle berücksichtigt werden. Somit führt die „Sandwich“-Form zu einer günstigeren van-der-Waals-Energie als die planare Form. Im zweiten Abschnitt dieser Arbeit konzentrierten sich unsere Untersuchungen auf die Substanzklasse der Acetylhydrazone, welche ebenfalls potentiell selbstkomplementäre Verbindungen darstellen. Im Gegensatz zu den Indol-Derivaten wurde hier der Abstand zwischen Donor und Akzeptor konstant gehalten, um zu untersuchen, wie sich unterschiedliche Reste der Acetylhydrazone auf die Konformation der Moleküle und somit auch auf die Komplexgeometrie auswirken. Zu diesem Zweck wurde eine Reihe von Verbindungen mit Resten unterschiedlicher sterischer Hinderung synthetisiert. Ziel war es auch in dieser Verbindungsklasse gezielt Dimere mit zwei Wasserstoffbrücken zu kristallisieren. Eine Suche in der CSD zeigte schnell, daß Acetylhydrazone zwei Vorzugskonformationen besitzen: eine, in der Donor und Akzeptor eine anti-Anordnung besitzen, was in der Regel zu kettenförmigen Wasserstoffbrücken führt, und eine syn-Anordnung, die zu den gewünschten Dimeren führen sollte. Es galt nun zu untersuchen, welche dieser Reste zur syn-Konformation führt und welches die Vorzugskonformation der Acetylhydrazone ist. Die Untersuchungen zeigten, daß zwei sterisch anspruchsvolle Reste zur syn-Anordnung von Donor und Akzeptor führen und somit zu Dimeren im Kristall. Verbindungen mit zwei sterisch wenig anspruchsvollen Resten lagen hingegen in der anti-Konformation vor und bildeten wie erwartet Polymere. Für die Acetylhydrazone konnte folgende These aufgestellt werden: Die syn-Konformation entsteht, wenn beide Reste drei oder mehr (Kohlenstoff-) Atome besitzen, anderenfalls entsteht die anti-Anordnung. Die Rechnungen lieferten, bis auf eine Ausnahme, supramolekulare Dimere mit zwei Wasserstoffbrücken. Für jene Verbindungen, die ebenfalls in der syn-Konformation in Dimeren kristallisieren, ist die Übereinstimmung zwischen der berechneten und der realen Komplexgeometrie sehr gut. Im letzten Kapitel dieser Arbeit sollten heteromolekulare Komplexe, also solche, die aus zwei unterschiedlichen Molekülen bestehen, untersucht werden. Die erste der eingesetzten Verbindungen sollte zwei Donor-Gruppen enthalten, während die zweite Verbindung zwei Akzeptoren besitzen sollte. Dabei wurde eine Reihe von Diol-Dion-Komplexen untersucht. Dabei gelang es nur einen dieser Komplexe zu kristallisieren und experimentell zu untersuchen. Leider lagen keine Dimere vor, sondern es bildete sich ein 2:1-Komplex (Diol/Dion), der kettenförmige Wasserstoffbrücken ausbildete. Erfreulich war hingegen, daß eine Konformationänderung des Dions zu beobachten war; denn gegenüber der Kristallstruktur der reinen Verbindung lag 25 im Komplex als planare Verbindung vor. Gleichzeitig wurden die möglichen Komplexgeometrien mit MOMO berechnet. Die meisten der berechneten Komplexe wiesen Dimere mit den gewünschten zwei Wasserstoffbrücken auf.
Beim Adenokarzinom des ösophago-gastralen Übergangs handelt es sich trotz einer erheblichen Weiterentwicklung in der Diagnostik und Therapie der gastrointestinalen Tumoren weiterhin um eine Erkrankung mit extrem schlechter Prognose. Im untersuchten Patientengut waren innerhalb eines Jahres bereits 67,9 % der Patienten verstorben. Es konnte nur bei 8,9% eine Heilung erreicht werden. Die Ursachen hierfür liegen in unterschiedlichen Bereichen. Obwohl er in den letzten Jahren vermehrt in den Mittelpunkt des Interesses gerückt ist, kommt es bei diesem Tumor immer noch zu einer oft verspäteten Diagnosestellung, sodass zu diesem Zeitpunkt bereits nur noch eine palliative Therapie in Frage kommt. In der vorliegenden Studie bestanden bei 51,8% der Patienten zum Zeitpunkt der Operation bereits Fernmetastasen. Zum einen liegt das daran, dass der Tumor aufgrund seiner Lage erst relativ spät zu Beschwerden führt und es aufgrund der bisher nicht bekannten Ätiologie keine Präventions- oder Screening-Untersuchungen gibt, die wie beim Magenkarzinom zu einer Entdeckung und Behandlung früherer Erkrankungsstadien führen könnten. Zum anderen fehlt beim Kardiakarzinom immer noch ein einheitliches stadiengerechtes Therapiekonzept. Außer einer onkologischen Resektion, für die es oft genug bereits zu spät ist, kann den Patienten keine wirksame Therapie angeboten werden. Hier ist der erste Schritt die Einführung einer einheitlichen, bezüglich Therapie und Prognose aussagefähigen Klassifikation, wie die von Siewert vorgeschlagene, die in der vorliegenden Arbeit verwendet wurde. Wie gezeigt werden konnte, lässt sich die Klassifikation problemlos auf die Kardiakarzinome anwenden. In der vorliegenden Arbeit fand sich eine weitgehend gleiche zahlenmäßige Verteilung der Tumoren auf die Typen I-III wie in der Orginalpublikation von Siewert beschrieben. Die Klassifikation ermöglicht es, die Ergebnisse verschiedener Zentren zu vergleichen und schafft damit die Vorraussetzung für weitere Forschungen. Bisher wurden weder eine erfolgversprechende Radiatio, noch eine suffiziente Chemotherapie gefunden, diese Therapien beschränken sich weitgehend auf Versuchsreihen von Forschungszentren oder sind als palliative Therapieversuche zu sehen. Auch in der vorliegenden Arbeit wurde bei 23,2% aller Patienten eine palliative Radio- oder Chemotherapie durchgeführt. Da es sich zwar um einen in den letzten Jahrzehnten in der westlichen Welt an Häufigkeit zunehmenden, aber insgesamt seltenen Tumor handelt, gibt es nur wenige Studien mit größeren Fallzahlen. In dieser Arbeit wurden 56 Fälle untersucht, die in einem Zeitraum von 15 Jahren im Klinikum Offenbach behandelt wurden. Andere Autoren berichten über ähnliche Fallzahlen. Aufgrund der unterschiedlichen Schwerpunkte lassen sich die Arbeiten zudem in der Regel nicht direkt vergleichen. Um ein evidenzbasiertes Therapiekonzept zu erstellen, wäre die Zusammenarbeit aller großen internationalen Tumorzentren nötig.
Fragestellung und Ziele
Die vorliegende Dissertation untersucht, auf welche Weisen der Roman Lodore von Mary Shelley die Erziehung von Mädchen inhaltlich und stilistisch gestaltet. Daran anknüpfend erforscht die Arbeit, welche Implikationen die Art der Darstellung für die Interpretation des gesamten Romans birgt. Die Analyse der Inszenierung der Mädchenerziehung dient somit als Basis und Fokuspunkt, durch welchen sich die weitere Erforschung der Sprache und Mechanismen des Romans sowie von Shelleys schriftstellerischer Handwerkskunst entwickelt.
Die Zielsetzung ist darauf ausgerichtet, zur Wiederentdeckung von Lodore beizutragen und eine holistische Neubewertung der Autorin Mary Shelley sowie ihres Spätwerks anzuregen. In Abgrenzung zum Gros der wissenschaftlichen Abhandlungen zu Mary Shelleys Spätwerk konzentriert sich die vorliegende Arbeit auf den Text als solchen in seiner Gestalt, seinem Inhalt und seinen Aussagen. Shelleys Biographie und ihre weiteren Veröffentlichungen wie etwa Frankenstein werden derweil bewusst ausgeblendet. Untersucht werden somit ausschließlich der Roman Lodore und das darin manifestierte Handwerk der Autorin, nicht jedoch ihr restliches Werk, ihre Person oder ihr Lebensumfeld.
Methodik
Da Lodore das Thema Mädchenerziehung nicht explizit thematisiert, entwickelt und erprobt die vorliegende Abhandlung eine Methodik, die es ermöglicht, einen Text auf Aspekte hin zu erforschen, welche er nur peripher zu tangieren scheint. Um jene für den Untersuchungsschwerpunkt relevanten Details identifizieren zu können, die in den Text beiläufig, untergründig oder selbstverständlich verwoben sind und die Erziehung von Mädchen charakterisieren, stützt sich die Arbeit auf eine diskursanalytische und kulturwissenschaftliche Betrachtung dessen, was der Begriff „Mädchenerziehung“ im Kontext des 18. und 19. Jahrhunderts umfasst.
Fundament dieser Sensibilisierung für die zeitgenössische, historische Perspektive auf die Erziehung von Mädchen sind, erstens, Abhandlungen der historischen Bildungsforschung zu Mädchenerziehung im 18. und 19. Jahrhundert in Europa und speziell in England. Zweitens werden aktuelle, wissenschaftliche Abhandlungen über den historischen Diskurs von Erziehungstheoretikern /-theoretikerinnen über Mädchenerziehung dazu genutzt, ein grundlegendes Verständnis aus moderner Perspektive auf die damaligen Denkmuster und Fragestellungen zu gewinnen. Drittens wird die Sensibilisierung für die zeitgenössischen Überlegungen und Ausdrucksweisen zum Thema Mädchenerziehung abgerundet durch das eigenständige Studium originaler Publikationen von Erziehungstheoretikern /-theoretikerinnen. Feinabgestimmt auf die Problemfelder und die historischen, erziehungsphilosophischen Grundpositionen untersucht die Arbeit in intensivem close reading die Darstellung der Mädchenerziehung und deren resultierenden Einfluss auf das Leben und Verhalten der weiblichen Figuren in Lodore.
Ergebnisse
Die Abhandlung erkennt unter der zunächst konventionell und unanstößig anmutenden Textoberfläche einen systematisch konstruierten, konsistenten Subtext. Die Dissertation charakterisiert die wiederkehrenden Techniken und sprachlichen Muster, mit denen der Subtext implementiert ist. Dadurch macht sie nachvollziehbar, inwiefern die emotionale Reaktion des Lesers auf den Roman im Sinne von Unverständnis, Irritation oder Amüsement nicht zufällig auftritt, sondern durch Mary Shelleys schriftstellerisches Handwerk bewusst provoziert wird.
Im Subtext verborgen identifiziert die Dissertation, erstens, eine Einladung zur kritischen Betrachtung systemkonformer Wertvorstellungen zum Leben von Frauen in der Familie und in der Gesellschaft. Dabei demonstriert die Interpretation, wie der Roman traditionelle und literarische Idealisierungen von „Weiblichkeit“ entzaubert, während er gleichzeitig alternative, geschlechtsneutrale Lebensentwürfe für Frauen anerkennend präsentiert.
Zweitens beobachtet die Arbeit im Subtext vielfältige Hinweise auf Missstände im Lebensalltag von Frauen und weist nach, dass der Roman insbesondere Momente der geschlechtsdiskriminierenden Vorverurteilung durchgängig inszeniert. Diese Problematisierung versteht die Dissertation als eine Aufforderung an den Leser / die Leserin, den eigenen Leseprozess des Romans in Bezug auf Informationsdistribution, Disposition und Verteilung der Sympathien selbstkritisch zu reflektieren.
Drittens entdeckt die Abhandlung im Subtext des Romans, dass Lodore unterschiedliche Ansätze der Mädchenerziehung in Bezug auf die Ausbildung von „Weiblichkeit“ polyperspektivisch erkundet. Die Untersuchung zeigt auf, dass der Roman drei verschiedene Modelle der Mädchenerziehung einander gegenüberstellt, die sich ideologisch mitunter diametral gegenüberstehen. Die Analyse beschreibt, inwiefern sich die drei Modelle mit den gleichen Herausforderungen innerhalb der Mädchenerziehung beschäftigen. Hierbei wird ausgeführt, auf welche Weise der Roman die unterschiedlichen Lösungsansätze auslotet, die von den drei Modellen auf diese konkreten Problemstellungen angeboten werden und sie abwägend, jedoch ohne kategorische Abwertung nebeneinander positioniert. Die Arbeit resümiert, dass der Roman einerseits die Bedeutung, Ausbildung und Konsequenz von „Weiblichkeit“ durch Erziehung, und andererseits das Leben, die Ziele und das Verhalten einer Frau innerhalb der Gesellschaft als Resultat solcher Erziehung kritisch prüft. Im Zuge dessen veranschaulicht die Dissertation, welche Aussagen und Suggestionen der Subtext dabei in Bezug auf die Themenkomplexe „Weiblichkeit“ und „Erziehung“ transportiert.
...
In der vorliegenden Arbeit wurden drei experimentelle Ansätze gewählt, um kardiale Ionenkanäle zu charakterisieren, die möglicherweise einen Einfluss auf das atriale Aktionspotential haben könnten und die somit potentielle neue Ziel-Gene für die Entwicklung neuer Antiarrhythmika darstellen könnten. Ein Schwerpunkt dieser Arbeit war die pharmakologische Untersuchung der Rolle des Schwellungsaktivierten Chloridkanals I Cl,swell für das atriale Aktionspotential. In einer weiteren Studie wurde eine neue regulatorische Untereinheit des hKv4.3-Kanals identifiziert sowie deren physiologische Bedeutung für die Aktivität des transienten Kalium-Auswärtsstroms I to1 charakterisiert. Schließlich wurde ein neuer Kaliumkanal, TASK-4, kloniert, der im humanen Herzen ausschließlich im Atrium vorkommt und deshalb einen Einfluss auf die Erregbarkeit des Herzvorhofs ausüben könnte. Unter mehreren Ethacrynsäure-Derivaten konnte mit DCPIB ein neuer potenter Blocker des I Cl,swell identifiziert werden. Nachfolgende Patch-Clamp und Zwei-Mikroelektroden Spannungsklemmen-Analysen verschiedener nativer und heterolog exprimierter Anionen und Kationenkanäle zeigten, dass DCPIB spezifisch den I Cl,swell Strom hemmt. Dies war eine Voraussetzung, um die Funktion des I Cl,swell beim atrialen Aktionspotential während osmotischer Zellschwellung zu untersuchen. Die Schwellung atrialer Kardiomyozyten führte zur Aktivierung des I Cl,swell und als Folge davon zu einer starken Verkürzung der Aktionspotentialdauer. Diese war durch DCPIB vollständig hemmbar. Unter basalen Bedingungen hatte DCPIB keinen Effekt auf das Aktionspotential. Diese Ergebnisse lassen den Schluss zu, dass die Aktivierung des I Cl,swell unter pathologischen Bedingungen, die mit einer kardialen Zellschwellung einhergehen, eine ursächliche Rolle beim Auftreten von Arrhythmien spielen kann. Viele frühere Untersuchungen über die Rolle des I Cl,swell bei Arrhythmien erfolgten am Rattenherzen. Unter Verwendung von DCPIB konnten wir aber zeigen, dass die in atrialen und ventrikulären Myozyten von normalen und von hypertrophierten Rattenherzen beschriebenen Chloridströme nicht durch den I Cl,swell hervorgerufen werden. Das Fehlen des I Cl,swell im Rattenherzen stellt damit diese früheren Ergebnisse in Frage. Eine weitere Leitfähigkeit, die im menschlichen Herzen zur Repolarisation der kardialen Membranen während dem Aktionspotential beiträgt, ist der 'Plateau-Strom" I Kp , der in seinen kinetischen Eigenschaften TWIK oder TASK-artigen Kaliumkanälen ähnelt. Als erster Schritt bei der Identifizierung der molekularen Identität dieses Kaliumkanals wurde in dieser Arbeit mit TASK-4 ein neues Mitglied der Säuresensitiven Tandem-von-zwei-Poren-Kaliumkanälen kloniert. Die heterologe Expression des TASK-4 in Xenopus-Oozyten erzeugte Kaliumströme, die eine starke Auswärts-Rektifizierung zeigten, die jedoch bei Erhöhung der extrazellulären Kaliumkonzentration verloren ging. Die TASK-4-Ströme waren abhängig vom extrazellulären pH-Wert, wobei die pH-Sensitivität im Vergleich zu den anderen TASK-Kanälen zu mehr alkalischen Werten verschoben war. Außerdem zeigten die TASK-4-Ströme die für TASK- Kanäle typischen pharmakologischen Eigenschaften. Aufgrund des Vorkommens von TASK-4 im Atrium und dem Atrioventrikular-Knoten des menschlichen Herzens stellt dieser Kaliumkanal einen neuen potentiellen Angriffspunkt für die Entwicklung eines Vorhof spezifischen Antiarrhythmikums dar. Im Gegensatz zu dem I Kp Strom ist der Ca 2 unabhängige transiente Kalium-Auswärtsstrom I to1 des Herzens für die initiale Phase der Repolarisation während des Aktionspotentials verantwortlich. In vielen Regionen des Herzens trägt die Untereinheit des hKv4.3 Kaliumkanals zum I to1 Strom bei. In dieser Arbeit wurde mit hKChIP2 erstmals eine regulatorische Untereinheit des I to1 identifiziert. Northern-Blot-Analysen haben gezeigt, dass das hKChIP2-Gen ausschließlich im humanen Herzen exprimiert ist, wobei es im Atrium und Ventrikel des adulten humanen Herzens, aber nicht im fötalen Herzen, vorkommt. Weiterhin konnten wir eine neue kurze Spleiß-Variante des hKChIP2-Gens (hKCNIP2) isolieren und durch PCR-Analyse nachweisen, dass diese im menschlichen Herzen die Hauptform des hKChIP2 darstellt. Die Koexpression des hKv4.3 mit beiden hKChIP2-Isoformen in Xenopus - Oozyten bewirkte eine Zunahme der Stromamplitude, eine Verschiebung der Spannung der halbmaximalen Inaktivierung und eine stark beschleunigte Erholung von der Inaktivierung der hKv4.3-Kanäle, die in Anwesenheit von hKChIP2 deutlich mehr dem nativen I to1 Kanal des humanen Epikards ähnelten. Unsere Ergebnisse sprechen sehr stark dafür, dass hKChIP2 eine physiologisch wichtige regulatorische Untereinheit des hKv4.3 ist, die auch zur Heterogenität der I to1 Ströme im humanen Herzen beiträgt. Da der I to1 Kanal an der Entstehung und dem Fortschreiten verschiedener Herzkrankheiten wie den Arrhythmien und der Herzinsuffizienz beteiligt ist, stellt hKChIP2 ein neues Ziel-Gen für die Entwicklung neuer zukünftiger Klasse III-Antiarrhythmika dar. Die in Kooperation mit der Universität Istanbul durchgeführte Aufklärung der Exon-Intron-Organisation des hKCNIP2-Gens liefert zudem die Grundlage für ein zukünftiges systematisches Screening nach Mutationen im hKChIP2-Gen in Familien mit vererbbaren Arrhythmien.
In allen bislang durchgeführten Experimenten zur Mutagenese von embryonalen Stammzellen war auffällig, dass Gene, die für sekretierte oder membranständige Proteine kodieren, stark unterrepräsentiert waren. Im Rahmen dieser Arbeit wurden zwei Genfallen untersucht, die speziell diese Gene mutieren sollten. Als Selektionskassetten tragen beide Genfallen den 5' Bereich des humanen CD2, der eine kryptische Spleißakzeptorsequenz enthält und für eine Transmembrandomäne kodiert, als Fusion mit der bakteriellen Neomycinphosphotransferase. U3Ceo trägt diese Kassette als klassische retrovirale Genfalle im LTR des Mouse Molony Leukemia Virus, wogegen die ebenfalls retrovirale FlipRosaCeo Genfalle die Selektionskassette im Viruskörper enthält. Diese wird von Rekombinaseerkennungssequenzen flankiert, welche eine konditionale Aktivierung der Mutation für die spätere Analyse in einem Mausmodell ermöglichen. Beide Genfallen zeigten mit ca. 80% aller Integrationen eine hohe Spezifität für Gene, die für sezernierte und membranständige Proteine kodieren. Allerdings war die Frequenz für Insertionen in sogenannte „hot spots“ bei beiden Genfallen aufgrund der geringeren Zahl an Zielgenen höher als bei anderen im GGTC verwendeten Genfallen (z.B. FlipRosabetageo). Innerhalb dieser „hot spots“ zeigte sich die bekannte Präferenz retroviraler Genfallenvektoren, in das 5’ Ende von Genen zu integrieren, wobei hier meist die größten Introns zu finden sind. Ebenso zeigte sich für die in dieser Arbeit untersuchten sekretorischen Genfallen genau wie bei anderen bekannten Genfallen eine bevorzugte Integration in Chromosomen mit einer hohen Gendichte. Die Funktionalität der konditionalen Genfalle konnte in vitro sowohl in Prokaryoten als auch in Eukaryoten durch Einbringen der Genfalle und der jeweiligen Rekombinasen bestätigt werden. In ES Zellen, die eine X-chomosomale Integration aufwiesen, wurde der Mechanismus durch transiente Expression der Rekombinasen in Klonen überprüft. Hierbei stellte sich heraus, dass das Wildtyptranskript eines mutierten Gens nach der einmaligen Rekombination der FlipRosaCeo wieder exprimiert wird und nicht durch die auf dem Gegenstrang befindliche Genfalle beeinflusst wird. Nach einer weiteren Rekombination mittels FLPe konnte der mutagene Ausgangszustand der Genfalle wieder hergestellt werden. Die Mutagenität der beiden Genfallen wurde durch Überprüfung der Konzentration der restlichen endogenen Transkripts der mutierten Gene per quantitativer PCR an X-chromosomalen Klonen analysiert. Hier konnte bei etwa 80% der untersuchten Klone eine sehr starke Mutation des jeweils getroffenen Gens festgestellt werden. Zur in vivo Überprüfung der U3Ceo Genfalle wurde ein Mausmodell durch Blastozysteninjektion des ES Zellklons M076C04 generiert. Die Integration der Genfalle in das erste Intron des Gens C030019F02Rik sollte eine deutliche Verkürzung des membranständigen Genproduktes bewirken. In Gehirnen von homozygoten Mäusen konnte die Expression des Wildtyptranskripts nicht mehr festgestellt werden, so dass diese Mauslinie eine Nullmutation des Gens trägt. Die in dieser Arbeit untersuchte KO Maus zeigte bisher keinen feststellbaren Phänotyp, obwohl das Genprodukt in vielen Spezies hoch konserviert vorliegt und auch nur in bestimmten Bereichen im Organismus nachweisbar ist, so dass eine wichtige Funktion des Proteins anzunehmen ist. Eine weitere Analyse dieser Mauslinie wird sich dieser Arbeit anschließen.
In der vorliegenden randomisiert-kontrollierten Cross-Over-Studie wurde erstmals die Wirksamkeit einer Manuellen Lymphdrainage (MLD) bei 14 männlichen Hämophilie A/B-Patienten (Durchschnittsalter 37,2 Jahre) untersucht.
Die Patienten erhielten im achtwöchigen Behandlungszeitraum zweimal pro Woche eine 30-minütige Lymphdrainagebehandlung (Periode 1). Nach vierwöchiger Wash-Out-Phase folgte ein weiterer achtwöchiger Nicht- Behandlungszeitraum (Periode 2). Je nach Gruppenzuweisung starteten die Patienten mit Periode 1/Wash-Out/Periode 2 oder in umgekehrter Reihenfolge Periode 2/Wash-Out/Periode 1.
Folgende Untersuchungsparameter wurden an vier zeitlichen Messpunkten erhoben: Schmerz (VAS), Gelenkbeweglichkeit (ROM), Hemophilia Joint Health Score 2.1 (HJHS) und Oberflächentemperatur (Infrarotthermografie).
In der Cross-Over-Analyse zeigte der Parameter „Schmerz“ eine signifikante Wirksamkeit der MLD (p=0,003): 66,7% der Patienten gaben eine deutliche Schmerzreduktion an, 33,3% der Patienten gaben eine leichte Schmerzreduktion an. Im HJHS reduzierte sich im Median die Punktzahl um 2,8 Punkte (p= 0,017). Insbesondere im Item „Gelenkschmerzen“ zeigte sich eine Reduktion des Scores um mindestens einen Punktwert bei 58,3 % der Patienten. Der erhobene HJHS- Score weist eine hohe interne Validität auf, da der Test ausschließlich von einem Expertentherapeuten durchgeführt wurde.
Die MLD hatte keinen klinisch relevanten Einfluss auf die Gelenkbeweglichkeit bei Extensions-/Flexionsbewegungen (p=0,3025/p=0,1082).
Die Infrarotthermografie (IRT) zeigte durchschnittliche Änderungen der Oberflächentemperatur eines Zielgelenks um insgesamt + 0,38°C (p=0,639). Zusammenfassend lässt sich sagen, dass die MLD einen signifikanten schmerzlindernden Effekt bei Patienten mit hämophiler Arthropathie besitzt. Dies geht mit einem insgesamt verbesserten HJHS-Score einher. Im Kontext der Gelenkbeweglichkeit zeigte die MLD keine klinisch relevante Verbesserung des artikulären Bewegungsausmaßes. Die veränderte Oberflächentemperatur im
Bereich der behandelten Target Joints lässt am ehesten eine lokale Stoffwechselanregung durch MLD vermuten. Ein Placebo-Effekt kann nicht ausgeschlossen werden, da durch die körperliche Zuwendung im Rahmen der MLD eine positive Auswirkung auf das subjektive Schmerzempfinden eine Rolle spielen könnte.
Für eine weitere Objektivierung und eine Empfehlung für eine klinische Anwendung der MLD bei Patienten mit hämophiler Arthropathie sind multizentrische, randomisierte Kontrollstudien mit höheren Fallzahlen erforderlich.
1.1 Hintergrund Diese Studie vergleicht in drei Teilen die konservative Behandlung nichtverschobener, nichtdislozierter Unterkiefergelenkfortsatzfrakturen mit der offenen Reposition und Fixierung verschobener und dislozierter Unterkiefergelenkfortsatzfrakturen bei I. Erwachsenen und II. bei Kindern. In einem speziellen III. Teil der Arbeit wird die geschlossene, konservative gegenüber der offenen, operativen Behandlung von nichtdislozierten hohen (Klasse VI nach Spiessl und Schroll1) Gelenkwalzenfrakturen verglichen. 1.2 Patienten und Methodik 1.2.1 Erwachsene 129 Patienten mit 158 Frakturen wurden von 2000 bis 2005 in die Studie aufgenommen. Klassen II bis V, d.h. verschobene und dislozierte Frakturen wurden operiert, also offen reponiert und intern fixiert, fortan als ORIF bezeichnet. Klasse I und VI (nichtverschobene, nichtdislozierte Frakturen) wurden konservativ therapiert und erhielten die geschlossene Therapie, fortan als GT bezeichnet. Nach einem Jahr wurden Gesichtssymmetrie, Schmerz, Fazialisfunktion, Narbenbildung, Reossifikation auf Röntgenkontrollen, Fragmentposition horizontal und vertikal beurteilt sowie inzisale Maximalbewegungen und die Kondylentranslation vermessen. 1.2.2 Kinder 22 Patienten jünger als 14 Jahre wurden von 2000 bis 2005 in die Studie einbezogen. Klasse II bis V nach Spiessl und Schroll, was verschobenen bzw. dislozierten Frakturen entspricht, wurden operiert; Klasse I und VI, entsprechend nicht disloziert und verschoben, konservativ behandelt. In einem Intervall von 1, 2 und 5 Jahren wurde dieses Kollektiv auf dieselbe Art und Weise nachuntersucht wie das Erwachsenenkollektiv. 1.2.3 Klasse VI Es nahmen 22 Patienten zwischen 2001 und 2005 mit 26 Klasse VI Frakturen (4 doppelt) an dieser Studie teil; in randomisiert ausgelegter Weise hatten 9 (41%) ORIF und 13 (59%) GT. Die Nachsorge erfolgte nach einem Jahr auf die bereits beschriebene Art. 1.3 Ergebnisse 1.3.1 Erwachsene Klasse I umfasste 29 Patienten, 37 Frakturen, mit einer relativen Inzidenz von 23%, Klasse II: 23/28/18%, Klasse III: 16/20/13%, Klasse IV: 30/35/22%, Klasse V: 18/23/15%, Klasse VI: 13/15/9%. Klinische Verläufe waren in Klasse I unkompliziert; Klasse II, III und IV erreichten operativ horizontale und vertikale Fragmentreposition mit geringem Knochenumbau. Einzelfälle zeigten persistierenden Schmerz, Dysokklusion und Osteosynthesefrakturen. Die Ergebnisse waren in Klasse V und VI weniger erfolgreich. Obgleich ORIF in Klasse V gute Reposition erreichte, kam es zu ausgeprägtem vertikalen Knochenabbau, Einzelfälle zeigten persistierenden Schmerz, Dysokklusion und Osteosynthesefrakturen. Klasse-VI-Fälle zeigten die schlechteste Translation, ebenfalls ausgeprägten Knochenumbau und gehäuft Dysokklusion. 1.3.2 Kinder 19 (79%) Patienten stellten sich zur Nachsorge vor: Klasse I=8, II=3, III=0, IV=2, V=5, VI=1; 11 Patienten (58%) nach 1 Jahr; 4 (21%) nach 2 Jahren und 4 (21%) nach 5 Jahren. Völlige Symptomfreiheit oder fehlende Motivation war nach telefonischer Aussage der Eltern der Grund für das Nichterscheinen zur Nachsorge. Alle Untersuchten zeigten eine suffiziente Mundöffnung. Ein Klasse-VI-Patient zeigte insuffiziente Kondylentranslation sowie drei Patienten Deflexionen; zwei Patienten partielle Fazialisparesen, die jedoch nach einem Jahr abgeklungen waren; in zwei Fällen wurden gebrochene Osteosynthesematerialien entfernt. Die vertikale und horizontale Kondylenabstützung wurde erfolgreich wiederhergestellt. Nennenswerte Kondylenresorptionen wurden in Klasse V verzeichnet; insgesamt 4 (17%) Misserfolge waren zu verzeichnen, wovon 3 auf Klasse V entfielen. 1.3.3 Klasse VI Insgesamt stellten sich 17 (77%) Patienten zur Nachuntersuchung vor; 8 (47%) wurden geschlossen und 9 (53%) offen therapiert. Alle Patienten zeigten eine normale Mundöffnung. Insuffiziente kondyläre Translation (definiert durch <6mm Translation bei Mundöffnung, Protrusion und Mediotrusion <3mm) trat jeweils bei zwei der ORIF- und GT- Patienten auf. Anhaltender Schmerz bei 2 mit ORIF, Deflexion größer als 4mm ebenfalls bei 2 mit ORIF. Bleibende Nervenparesen wurden nicht verzeichnet. Im Falle eines ORIF- Patienten wurde gebrochenes Osteosynthesematerial entfernt und im Falle eines GT- Patienten war eine starke Dysokklusion erkennbar. Die vertikale Position des medialen Fragments wurde mit ORIF erfolgreich wiederhergestellt, wenn dies auch mit einem beträchtlichen Umbauprozess verbunden war (der laterale Kondylenpol ist bei Klasse VI unverändert). Die geschlossene Therapie versagte in der vertikalen Wiederherstellung des medianen Kondylenpols, zeigte aber weniger Umbauprozesse. Die Winkelabweichung war bei ORIF erfolgreich reduziert, bei der GT konnte eine leichte Winkelvergrößerung verzeichnet werden. 1.4 Schlussfolgerung Klasse V und VI stellen im großen Kollektiv der Erwachsenen nach wie vor die komplexesten Anforderungen, während die übrigen Klassen nach den Richtlinien dieser Studie gut therapiert werden können. Beim kleineren Kollektiv der Kinder ist das Behandlungsprinzip zu 83% erfolgreich, wobei auch hier die größten Probleme bei Klasse V liegen. Innerhalb der Klasse-VI-Studie ergab die GT 2/8 (25%) und ORIF 2/9 (22%) inakzeptable Ergebnisse und postoperativen Kondylenumbau. Insgesamt erreichte hier die Erfolgsrate 75 zu 78%. Wenn hier also nicht die GT zukünftig vorzuziehen ist, könnten hochfeste resorbierbare Osteosynthesen mit intraossärer Lokalisation ein besseres Ergebnis liefern als die Mikroplatten und Schrauben an der dorsalen Kondylenzirkumferenz, die in dieser Studie verwendet wurden. Insgesamt könnte der Gelenkumbau in Klasse V und VI und die Translation in Klasse VI durch noch vorsichtigere Mobilisation und verbesserte Osteosynthese sowie von einem minimalisierten Operationstrauma profitieren.
Das Auftreten von plötzlichem Herztod, das häufig durch ventrikuläre Tachyarrhythmien ausgelöst wird, stellt bis heute eine Herausforderung bei der Therapie der Patienten mit schwerer Herzinsuffizienz dar. Derartige Arrhythmien werden bei über 85% der Patienten mit schwerer Herzinsuffizienz beschrieben und über 50% der Todesursachen werden dabei auf das Auftreten von plötzlichem Herztod zurückgeführt. Es wird vermutet, dass das elektrische Remodeling als Teil der gesamten kardialen Umbauvorgänge bei der Entstehung einer Herzinsuffizienz die pathophysiologische Grundlage dieser Arrhythmien darstellt. Das Renin-Angiotensin-Aldosteron System spielt eine zentrale Rolle bei der Ausbildung des elektrischen Remodeling und insbesondere erhöhte Aldosteronkonzentrationen korrelieren mit dem Risiko kardiovaskulärer Zwischenfälle. Darüberhinaus konnte in zwei klinischen Studien (RALES und EPHESUS) gezeigt werden, dass die Therapie herzinsuffizienter Patienten mit den Aldosteronantagonisten Spironolacton und Eplerenon die Mortalität und Morbidität und insbesondere auch das Auftreten von plötzlichem Herztod signifikant senken konnte. Weitere Studien zeigen eine Verbindung zwischen dem Auftreten einer Herzinsuffizienz und Veränderungen in der Funktion und Expression kardiospezifischer repolarisierender K+-Kanäle. Neben den klinischen Daten, die einen protektiven Effekt der Aldosteronantagonisten bei plötzlichem Herztod belegen, ist wenig über die Auswirkungen von Aldosteron auf das elektrische Remodeling des Herzens bekannt. In dieser Arbeit sollte daher die Auswirkung einer chronischen Aldosteronexposition in Ratten auf die elektrophysiologischen Eigenschaften des Herzens untersucht werden. Dazu wurde Wistar-Ratten Aldosteron verabreicht und einigen Tieren die Aldosteronantagonisten Spironolacton und Eplerenon, um die Effekte der unspezifischen (Spironolacton) und spezifischen (Eplerenon) MR Blockade auf die elektrischen Eigenschaften der Kardiomyozyten zu untersuchen. Die Aldosteron exponierten Tiere entwickelten eine linksventrikuläre Hypertrophie, die sich unabhängig von Blutdruckveränderungen entwickelte, sowie ein signifikant verlängertes QT-Intervall, vermehrt auftretende ventrikuläre Extrasystolen und ventrikuläre Tachykardien. Die Elektrolytwerte (K+, Na+, Cl-) waren dabei nicht verändert. Die Aldosteronantagonisten Spironolacton und Eplerenon waren in der Lage, die unter Aldosteron auftretenden Veränderungen zu verhindern. Die Transkription der Untereinheiten kardiospezifischer K+-Kanäle (Ito, IKur, IK1) und des L-Typ Ca2+-Kanals war unter Aldosteronstimulation im linken Ventrikel signifikant erniedrigt. Auf Proteinebene konnte dies für die Kanaluntereinheiten Kv1.5 (IKur), Kir2.3 (IK1) und Cav1.2 (L-Typ Ca2+-Kanal) bestätigt werden. Die Untersuchung eventuell zugrunde liegender Signaltransduktionswege lieferte erniedrigte mRNA Expressionslevel der kardiospezifischen Proteinkinase C Isoformen PKC-α und PKC-ε, wohingegen die mRNA-Expression von PKC-δ unter Aldosteronstimulation unverändert war. Diese Veränderungen in der Transkription der PKC Isoformen wurden durch Behandlung der Tiere mit den Aldosteronantagonisten inhibiert, was für einen MR vermittelten Effekt spricht. Weiterhin zeigte eine chronische Aldosteronstimulation eine erniedrigte mRNA Expression von Calcineurin Aß (PPP3CB) sowie Calcineurinaktivität in linksventrikulärem Gewebe der Tiere. Dieser Effekt konnte durch die Aldosteronantagonisten nicht aufgehoben werden, so dass ein Signaltransduktionsweg, der nicht über den MR vermittelt wird, zugrunde liegen könnte. Insgesamt konnte in dieser Arbeit gezeigt werden, dass chronisch erhöhte Aldosteronkonzentrationen im Rattenherz blutdruckunabhängig zu strukturellen und elektrischen Veränderungen führen, die das Auftreten maligner ventrikulärer Arrhythmien begünstigen. Beide Aldosteronantagonisten Spironolacton und Eplerenon sind in der Lage, die durch Aldosteron vermittelten Effekte in gleicher Weise zu inhibieren. Die Ergebnisse zeigen pathophysiologische Zusammenhänge auf, die die Bedeutung von Aldosteron und der Therapie mit Aldosteronantagonisten für die Behandlung der Herzinsuffizienz und in Zukunft möglicherweise der Hypertrophie unterstreichen.
M6G hat eine viel längere Transferhalbwertzeit zwischen Plasma und zentralnervösem Wirkort als Morphin. Dies wurde experimentell sowohl für die miotischen als auch für die analgetischen Effekte bestimmt. Außerdem werden hohe Mengen systemischen M6Gs benötigt, um die gleichen Effekte wie Morphin zu produzieren. Dies deutet darauf hin, dass M6G bei Nierengesunden nicht zu den akuten zentralnervösen Opioideffekten von Morphin beiträgt. Bei Applikation sehr hoher Dosen von M6G, welche die gleichen Effekte wie klinisch relevante Dosen von Morphin erzeugen, versursachte M6G auch die gleichen Nebenwirkungen wie Morphin. Eine in der Literatur diskutierte bessere Tolerabilität von M6G im Vergleich zu Morphin konnten wir also nicht beobachten. Die Ergebnisse aus den kontrollierten Studien mit gesunden freiwilligen Probanden deuten auf eine Modulation klinischer Wirkungen von M6G und auch von Morphin durch den 118A>GPolymorphismus des OPPM1-Gens hin und könnten damit klinisch relevante Konsequenzen für die Opioidtherapie bei nicht unbedeutend großen Gruppen von Patienten haben. Die pupillenkonstriktorischen Wirkungen von M6G und teilweise auch Morphin (unter analgetischen Dosierungen) als typischer Opioideffekt war bei Trägern des mutierten 118G-Allels weniger stark ausgeprägt als bei Nichtträgern der Variante. Die Anwesenheit des mutierten 118G-Allels reduzierte signifikant die Potenz von M6G unter subanalgetischen Dosierungen (Studie 1) und von Morphin und M6G unter analgetischen Dosierungen (Studie 2). Obwohl die Träger des mutierten 118G-Allels höhere Opioiddosen zur Erlangung einer den Nichtträgern vergleichbaren Analgesie benötigten, kam Erbrechen bei den Mutationsträgern unter analgetischer Opioiddosierung seltener vor. Die Untersuchungen unterstützten damit die Erwartung einer pharmakogenetisch basierten personalisierten Schmerztherapie.
Seit Einführung der Operationen mit HLM vor etwa 50 Jahren haben zahlreiche Veränderungen von Komponenten zu Fortschritten bezüglich einer verbesserten Biokompatibilität der EKZ geführt (Daniel S 1996; Gu Y 1993). Die EKZ ist nach wie vor eine Voraussetzung für die Mehrzahl der Herzoperationen und ist mit einer systemischen inflammatorischen Reaktion verbunden (SIRS), welche für eine postoperative Organdysfunktion verantwortlich sein kann. Herz-, Lungen- und Nierenfunktion als auch Gerinnungssystem sind in verschiedenem Ausmaß betroffen (Kirklin JK (1983); Westaby S 1987). Dieser Ganzkörperschaden ist ein multifaktorieller Prozess, der hauptsächlich durch den Kontakt von Blut mit fremden Oberflächen verursacht wird und sowohl zu einer Aktivierung der Leukozyten als auch der Komplementkaskade führt (Gourlay T 2001; Levy JH 2003). In Zeiten der minimal-invasiven Herzchirurgie besteht nun nicht nur die Absicht, das chirurgische Trauma zu reduzieren, sondern auch die pathologischen Auswirkungen der EKZ zu minimieren. Deshalb führten neuartige Konzepte und Strategien zur Entwicklung minimierter extrakorporaler Zirkulationssysteme, die vor allem durch reduzierte Fremdoberflächen und geringeres Primingvolumen charakterisiert sind (von Segesser LK 2003). Das CorX™ System folgt diesem Konzept und besteht aus einem geschlossenen System mit sehr geringere Oberfläche, einer integrierten Pumpe mit Oxygenator und einem Luftelimierungssystem. Außerdem wird weder ein Kardiotomie-Reservoir noch eine perikardiale Saugung verwendet, um den zusätzlichen Blutluftkontakt zu vermeiden. Das Ziel dieser Untersuchung war, dass CorX™ System in einer prospektiv randomisierten Studie mit einer konventionellen HLM in Bezug auf perioperative klinische und biochemische Parameter bei koronararteriellen Bypassoperationen in einem Niederigrisiko Patientenkollektiv zu vergleichen. 200 Patienten wurden entweder der CorX™ System-Gruppe (n = 100, Gruppe A) oder der Standard-HLM-Gruppe (n = 100, Gruppe B) zugeteilt. Neben der Auswertung von perioperativen Daten und routinemäßigen Blutproben waren vor allem die Lungenfunktion und der Myokardschaden Gegenstand dieser Untersuchung. Die PMNElastase und TCC dienten dazu, die inflammatorische Reaktion zu beurteilen. Demographische und operative Patientendaten unterschieden sich zwischen beiden Gruppen nicht, sie waren daher vergleichbar. Die postoperative Lungenfunktion zeigte postoperativ keinen signifikanten Unterschied in beiden Gruppen. Zwar war der Oxygenierungsindex in der ersten postoperativen Messung in der CorX-Gruppe signifikant niedriger, dies hatte aber keine Auswirkungen auf die Ergebnisse der Lungenfunktionstests am 5. postoperativen Tag. In der CorX™-Gruppe beobachteten wir verminderte CK-MB Werte postoperativ, was auf einen signifikant niedrigeren Herzmuskelzelluntergang hinweist. Auch dieses Ergebnis hatte aber keine klinische Relevanz. Eine Stunde nach HLM waren sowohl PMN-Elastase als auch TCC signifikant niedriger in Gruppe A im Vergleich zu Gruppe B (PMNE:76±44ng/ml vs 438±230ng/ml, p<0,0001; TCC: 16±8IU/ml vs 29±19IU/ml, p<0,0001). Dies zeigt eine deutlich verminderte inflammatorische Reaktion in der CorX-Gruppe auf, welche sich aber klinisch in diesem Niedrigrisikopatientengut nicht ausgewirkt hat. Die klinischen Ergebnisse hinsichtlich Morbidität und Mortalität, Intensiv- und Krankenhausaufenthalt waren nicht signifikant unterschiedlich im Gruppenvergleich. Das CorX™ System ist sicher und erfordert nur eine kurze Trainingsperiode für das chirurgische Team. Es wurde von den Kardiotechnikern gut angenommen und sogar gegenüber der konventionellen HLM favorisiert. Die inflammatorische Reaktion nach EKZ war signifikant reduziert, jedoch gab es bei Niedrigrisikopatienten keinen messbaren Unterschied bei Betrachtung der klinischen Ergebnisse. Die Reduktion der inflammatorischen Reaktion durch den Einsatz einer minimierten HLM könnte bei Hochrisikopatienten aber von großer Bedeutung sein.
Es galt, im Rahmen eines Vergleiches von prae- und bis zu zehn Jahren postoperativ ermittelten Befunddaten den langzeitigen Effekt einer systematischen Parodontitisbehandlung auf den oralen Gesundheitszustand zu ermitteln. Dazu wurden 76 an der Poliklinik für Parodontologie in Frankfurt behandelten und mehrfach nachuntersuchten Patienten (davon 46 Frauen und 30 Männer) im Alter von 36 bis 79 Jahren die jeweiligen Befunddaten (Plaquebelastung, Zahnfleischbluten, Sondiertiefe, Zahnlockerungen, Zahnverlust, Rezessionen und sondierbare Furkationen) im Sinne der Fragestellung ausgewertet. Es ergab sich in der Tat ein jeweils positiver Effekt der Behandlung, am ausgeprägtesten sechs Wochen bis sechs Monate postoperativ festgestellt, danach sich langsam verschlechternd, aber nicht wieder zum Ausgangsbefund zurückfallend. Schlüsselte man die Patienten noch danach auf, ob sie sich nach Therapieende zu regelmäßigen Nachuntersuchungsterminen vorgestellt hatten oder nicht, dann ergab sich ein zwar nur geringgradiger aber dennoch eindeutiger Effekt zugunsten der „Compliance“-übenden Patienten. Allerdings konnte in keinem einzigen Fall eine komplette Wiederherstellung der vollkommenen parodontalen Gesundheit konstatiert werden. Alle Patienten wiesen nach wie vor, wenn auch geringgradige, pathologische Veränderungen der parodontalen Parameter auf, die eine gewisse Nachbehandlung angeraten erscheinen ließen, um späteren Zahnverlust vorzubeugen. Damit wird einmal mehr deutlich, dass die schon eingangs aus der Literatur zitierte Behauptung, bei der Parodontitis handele es sich um eine chronische Erkrankung mit fortlaufender Behandlungsnotwendigkeit, sich auf klinische Erkenntnisse stützen kann.
Künstliche Ribonucleasen, die sequenzspezifisch und effizient die Spaltung von RNA-Phosphordiesterbindungen katalysieren, könnten potenziell nicht nur als biochemische Werkzeuge dienen, sondern auch als Wirkstoffe gegen eine Vielzahl von Erkrankungen, bei denen mRNA oder miRNA involviert sind, eine wichtige Rolle spielen. Obwohl in den letzten beiden Jahrzehnten zahlreiche sequenzspezifische RNA-Spalter entwickelt wurden, bleibt die Spaltaktivität dieser Verbindungen nach wie vor deutlich hinter der ihrer natürlichen Äquivalente zurück. Die Optimierung künstlicher Ribonucleasen und grundlegend dafür die Erforschung der Faktoren, die die Spaltaktivität einer Verbindung beeinflussen, sind daher weiterhin von großem Interesse. Zwar enthalten die meisten künstlichen Ribonucleasen Metallionen, doch sind auch metallfreie RNA-Spalter, zum Beispiel auf der Basis heterocyclischer Guanidine, bekannt. Prinzipiell kann die Hydrolyse des RNA-Rückgrates durch Deprotonierung der nucleophil am Phosphoratom angreifenden 2‘-OH-Gruppe, durch Protonierung der als Abgangsgruppe fungierenden 5‘-OH-Gruppe sowie durch Stabilisierung des bei der Spaltung durchlaufenen dianionischen Phosphorans katalysiert werden. Daher sollten potenzielle RNA-Spalter in der Lage sein, sowohl als Base als auch als Säure wirken zu können, was bei einem pKa-Wert im Bereich von 7 am besten gegeben ist. Fungiert ein und dasselbe Molekül als Protonenakzeptor und -donor, so kommt es im Fall von Guanidinanaloga zu einer Tautomerisierung vom Amino- zum Iminoisomer. Eine möglichst kleine Energiedifferenz zwischen beiden Formen sollte sich daher positiv auf die Spaltaktivität auswirken. In der vorliegenden Arbeit wurde eine Reihe heterocyclischer Guanidine synthetisiert, deren pKa-Werte bestimmt und die jeweiligen Energiedifferenzen zwischen Amino- und Iminotautomer grob mittels AM1-Rechnungen abgeschätzt. In Spaltexperimenten wurden Cy5-markierte RNA-Substrate mit den verschiedenen Verbindungen inkubiert (Spalter-Konzentration: 2 bzw. 10 mM). Die Analyse und Quantifizierung der Spaltprodukte erfolgten anschließend mithilfe eines DNA-Sequenziergerätes. Alle untersuchten und ausreichend löslichen Substanzen, die sowohl einen geeigneten pKa-Wert (6 – 8) als auch eine niedrige Energiedifferenz zwischen Amino- und Iminotautomer (≤ 5 kcal/mol) aufwiesen bzw. bei denen nur der pKa-Wert oder nur die Energiedifferenz in geringem Maße vom Idealwert abwich, spalteten RNA, wenn auch teilweise nur mit einer geringen Aktivität. In den Spaltexperimenten erwiesen sich Guanidinanaloga mit einem großen aromatischen System als besonders aktiv, allen voran 2-Aminoperimidin und seine Derivate, die auch bei Konzentrationen unter 50 µM Spaltaktivität zeigten. Gleichzeitig offenbarten diese Verbindungen in Fluoreszenzkorrelationsspektroskopie Experimenten eine große Tendenz zur Aggregation mit RNA, so dass die Spaltung in diesen Fällen möglicherweise nicht durch Einzelmoleküle, sondern durch Aggregate erfolgte. Um RNA-Substrate auch sequenzspezifisch spalten zu können, wurden PNA-Konjugate des bereits bekannten RNA-Spalters Tris(2-aminobenzimidazol) hergestellt, wobei der Spalter über eine neue, quecksilberfreie Route synthetisiert wurde. Es konnte gezeigt werden, dass diese PNA-Konjugate RNA sequenzspezifisch mit einer Halbwertszeit von etwa 11 h spalten, was im Rahmen der Halbwertszeit vergleichbarer DNA-Konjugate liegt. Um zu untersuchen, ob 2-Aminoperimidine auch als Einzelverbindungen aktiv sind, wurden zwei PNA-Konjugate von am Naphthylring substituierten 2-Aminoperimidin-Derivaten synthetisiert. Beide Konjugate zeigten keinerlei Spaltaktivität, was darauf hindeuten könnte, dass die Hydrolyse des RNA-Rückgrates nur durch mehrere Spalter-Einheiten – kovalent verknüpft oder in Form von Aggregaten – effizient katalysiert werden kann.
Während die Charakterisierung des Verhältnisses zwischen Christentum und Naturwissenschaft als konkurrierend oder feindselig vor allem mit den ältesten Auseinandersetzungen der Frühen Neuzeit assoziiert wird – die Verurteilung Galileo Galileis durch die römische Inquisition (1633) fungiert gleichsam als Symbol des kirchlich-wissenschaftlichen Gegensatzes –, scheinen die jüngsten schulpolitischen Gefechte in den USA eine ungebrochene Aktualität des Konflikts bis in die Gegenwart säkularisierter Gesellschaften zu belegen. Nachdem elf Familien gegen den Beschluss der Schulbehörde von Dover (Pennsylvania) geklagt hatten, im Biologieunterricht neben der darwinschen Evolutionstheorie die Idee des "Intelligent Design" (ID) als gleichberechtigtes Alternativmodell zu präsentieren, fällte der zuständige Bezirksrichter John Jones am 20. Dezember 2005 ein Urteil, welches "Intelligent Design" als religiöse Weltanschauung klassifiziert, dessen Anspruch auf Wissenschaftlichkeit zurückweist und unter Berufung auf die verfassungsmäßige Verankerung der Trennung von Kirche und Staat, welche den Religionsunterricht an staatlichen Schulen verbietet, aus dem Lehrplan verbannt. Seit Januar 2005 waren Biologielehrer der dortigen Highschool zur Verlesung einer Erklärung am Beginn der neunten Klasse verpflichtet, welche die Lückenhaftigkeit der Evolutionslehre betont, "Intelligent Design" als alternative Erklärung über den Ursprung des Lebens vorstellt und schließlich dazu motiviert, sich mit Hilfe der Schulbibliothek über dessen Konzept zu informieren. ...
Die Aggregation von Thrombocyten ist ein wichtiger physiologischer Schutzmechanismus zur primären Blutstillung nach Gefäßverletzungen. Dieser Vorgang kann jedoch unter pathologischen Bedingungen zu Herzinfarkten und Schlaganfällen führen. Der Aggregationsprozeß ist durch Ausbildung sogenannter "Fibrinogenbrücken" zwischen verschiedenen Thrombocyten gekennzeichnet. Dies wird durch Bindung von Fibrinogen an das aktivierte Integrin alphaIIbbeta3 auf der Thrombocytenoberfläche ausgelöst. Das kleine G-Protein Rap1B aus der Ras-Superfamilie reguliert den Aktivitätszustand von Integrinen und besitzt damit eine zentrale Rolle bei der Aggregation von Thrombocyten. Die Aktivierung von Rap1B wird durch eine Vielzahl von Plättchenagonisten innerhalb von wenigen Sekunden ausgelöst. Der von Thrombocyten und Gefäßendothelzellen gebildete Botenstoff Stickstoffmonoxid (NO) kann die Thrombocytenaggregation über den NO/cGMP-Signalweg hemmen. Das Signalmolekül NO aktiviert in Thrombocyten die NO-sensitive Guanylyl-Cyclase (sGC), hierdurch wird die Synthese des sekundären Botenstoffes cGMP angeregt. Das cGMP-Molekül aktiviert nachfolgend die cGMP-abhängige Proteinkinase-Ibeta (cGK-Ibeta), welche die aggregationshemmende NO-Wirkung vermittelt. Die verantwortlichen Zielproteine der cGK-Ibeta wurden bis heute jedoch nicht hinreichend aufgeklärt. In der vorliegenden Arbeit sollten verschiedene Aspekte der NO-induzierten Hemmung der Thrombocytenaggregation untersucht werden. Dabei wurden neue Mechanismen dieser Inhibition identifiziert. Zum einen konnte eine kinetisch schnelle Hemmung der Rap1B-Aktivierung in Thrombocyten nachgewiesen werden. Zum anderen konnten einer cGK-Ibeta-vermittelten, kinetisch langsamen Rap1B-Phosphorylierung hemmende Effekte auf die Membranlokalisation von Rap1B in MDCK-Zellen und auf die Zellausbreitung von Hela-Zellen zugeordnet werden. Weiterhin wurde im Rahmen dieser Arbeit eine neue Proteininteraktion zwischen dem mitochondrialen CGI-51-Protein und Rap1B identifiziert und verifiziert. Zur Aufklärung eines Einflusses des NO/cGMP-Signalweges auf die Aktivierung von Rap1B in Thrombocyten wurde die NO/sGC/cGMP/cGK-Ibeta-Signalkaskade auf verschiedenen Stufen aktiviert oder gehemmt, bevor anschließend die Rap1GTPBildung mit verschiedenen Plättchenagonisten induziert wurde. Das aktive Rap1B wurde unter Verwendung eines Rap1GTP-bindenden Fusionsproteins präzipitiert und nachgewiesen. Durch NO-freisetzende Substanzen konnte eine Hemmung der Rap1BAktivierung erreicht werden. Auch die Aktivierung der sGC mit einem spezifischen Aktivator führte zur Inhibition von Rap1B. Die direkte Aktivierung der cGK-Ibeta konnte Rap1B ebenfalls hemmen, während eine Blockade der cGK-Ibeta die NO-induzierte Hemmung der Rap1-Aktivierung verhinderte. Die genannten Effekte des NO/cGMP-Signalwegs waren unabhängig vom Stimulus, der zur Rap1B-Aktivierung genutzt wurde, sowohl die Aktivierung über verschiedene G-Protein-gekoppelte Rezeptoren (GPCR) als auch die Aktivierung über Tyrosin-Kinasen wurden gehemmt. Eine detailliertere Untersuchung ergab, daß cGK-Ibeta die Ca2+-unabhängige Aktivierung von Rap1B hemmen konnte. Die Rolle der cGK-Ibeta wurde abschließend im unabhängigen Zellsystem der Megakaryocyten abgesichert. Die Hemmung der Rap1B-Aktivierung durch den NO/cGMP-Signalweg stellt einen schnellen Regulationsmechanismus zur Inhibition der Thrombocytenaggregation dar. Aus der Literatur ist eine kinetisch langsame Phosphorylierung von Rap1B an Serin-179 durch cGK-Ibeta bekannt. Zur Ermittlung ihrer Funktion wurden mikroskopische Untersuchungen der subzellulären Rap1B-Lokalisation in lebenden MDCK-Zellen durchgeführt. Hierbei konnte gezeigt werden, daß eine nicht-phosphorylierbare Rap1BMutante eine ausgeprägte Membranlokalisation aufweist, während eine phosphomimetische Rap1B-Mutante bevorzugt cytoplasmatisch lokalisiert ist. In einer weiterführenden Studie wurde der Effekt dieser Rap1B-Mutanten auf das Zellausbreitungsverhalten von Hela-Zellen analysiert. Die Expression der nichtphosphorylierbaren Rap1B-Mutante führte dabei zu einer signifikant gesteigerten Zellausbreitung, welche hingegen durch eine phosphomimetische Rap1B-Mutante deutlich abgeschwächt war. Dies impliziert einen zusätzlichen Mechanismus, über den der NO/cGMP-Signalweg die Adhäsion bzw. die Aggregation von Thrombocyten regulieren kann. Zur Identifizierung von neuen Interaktionspartnern, die spezifisch an phosphoryliertes Rap1B binden und dessen subzelluläre Verteilung oder Aktivität regulieren, wurde das Yeast-Two-Hybrid-System eingesetzt. Hierbei konnte das mitochondriale CGI-51-Protein als neuer Bindepartner von Rap1B identifiziert und in Säugerzellen verifiziert werden. Eine phosphospezifische Interaktion konnte allerdings nicht nachgewiesen werden. Das CGI-51-Protein spielt eine wichtige Rolle bei der Proteinsortierung in der äußeren Mitochondrienmembran. Die Funktion der Interaktion von CGI-51-Protein mit Rap1B wurde im Rahmen dieser Arbeit nicht untersucht. Zusammenfassend kann gesagt werden, daß in der vorliegenden Arbeit erstmalig neue Erkenntnisse zur Regulation des kleinen G-Proteins Rap1B durch den NO/cGMP-Signalweg dargestellt sind. Dieser Regelmechanismus besitzt eine physioplogische Bedeutung bei der Inhibition der Thrombocytenaggregation.
Ziel dieser Arbeit, die im Rahmen der Ice Nuclei Research Unit (INUIT) Forschergruppe erstellt wurde, war ursprünglich die saisonale und geographische Variabilität von bodennahen Eiskeimen zu untersuchen. Die Konzentrationen, Quellen und Zusammensetzung der Eisnuklei (ice nuclei, IN) sollte als Basis für Parametrisierungen dienen. Das Verständnis von Eiskeimen und deren Einfluss auf Wetter und Klima sind nur zum Teil bekannt und bedürfen daher noch weitgehender Forschung. Auch die Änderung der Eiskeimkonzentration mit der Zeit kann von Bedeutung sein, diese sollte durch die Fortführung einer Langzeitmessreihe untersucht werden. Durch Hinzuziehen von lokalen Parametern und Trajektorien sollten Proxies für die IN Konzentration ermittelt werden.
Im Rahmen dieser Arbeit taten sich jedoch Probleme am Messverfahren auf, weshalb die ursprünglichen Ziele in den Hintergrund gerieten und die Verbesserung und Neuaufnahme des Messverfahrens in den Vordergrund trat. Anhand von zielgerichteten Experimenten wurde ein Messfehler ermittelt, der durch die vorherige Fehlinterpretation von deliqueszierenden Partikeln und von Tröpfchen als vermeintliche Eiskristalle entstand. Dieser Fehler wurde charakterisiert und durch optische Analysen dessen Ursprung ermittelt. Datensätze, die durch diese hygroskopischen Partikel fehlerbehaftet waren, wurden korrigiert und reanalysiert. Ein in früheren Arbeiten am Taunus Observatorium/Kleiner Feldberg ermittelter Jahresgang in der Eiskeimkonzentration mit einem Maximum im Sommer und einem Minimum im Winter konnte bestätigt werden, die Absolutzahlen sind jedoch deutlich geringer als bisher angenommen. Lokale Parameter sowie Trajektorien wurden zur weiteren Analyse hinzugezogen.
Die Reevaluierung der Datensätze vom Taunus Observatorium führte zu keinem abschließenden Ergebnis. Ein allgemein gültiger Zusammenhang zwischen Eiskeimkonzentration und Parametern, welche das Staubvorkommen in der Atmosphäre quantifizieren (PM10 und Aerosol Optische Dicke), konnte nicht festgestellt werden. Da die Messungen bei relativ warmen Bedingungen (≥-18°C) durchgeführt wurden, Staub aber erst bei kälteren Temperaturen als effektiver Eiskeim gilt, ist dieses Ergebnis jedoch zu erwarten gewesen.
Auch die Luftmassenherkunft scheint keinen eindeutigen Einfluss zu haben. Betrachtungen der Bodenfeuchte lieferten signifikante Korrelationen, welche jedoch monatsabhängig positiv oder negativ ausfallen können. Im Frühling ist eine hohe Bodenfeuchte mit einer erhöhten Konzentration von IN in Verbindung zu bringen, im Sommer liegt bei niedriger Bodenfeuchte eine tendenziell höhere Eiskeimkonzentration vor. Die Windrichtung hat für die Eiskeimkonzentration einen Einfluss, wenn der Wind aus Südost zum Taunus Observatorium strömt. Anthropogenes Aerosol aus Frankfurt am Main hemmt hier vermutlich die Eisbildung, was zu einer signifikant niedrigeren mittleren Konzentration aus dieser Richtung führt.
Da das Messverfahren noch nicht in seinem vollen Potential genutzt wurde, wurde es um eine Analysemethode erweitert. Mittels Tröpfchengefrierexperimenten konnte ein weiterer Gefriermodus betrachtet werden. Nun deckt das hier genutzte Messverfahren drei der vier bekannten Gefriermoden ab. Anhand von Testsubstanzen wurde die Zuverlässigkeit der neu eingeführten Methode überprüft und nachgewiesen.
Erste Parallelproben der korrigierten Depositions- und Kondensationsgefriermessmethode und der neu eingeführten Immersionsgefriermessung wurden am Taunus Observatorium/Kleiner Feldberg genommen. Dabei wurde auch ein Staubereignis beprobt und detailliert ausgewertet. Zwischen lokalen Parametern und Eiskeimkonzentration fanden sich Zusammenhänge. Bei Messbedingungen <-20°C konnte ein signifikanter Zusammenhang zwischen PM10 und Eiskeimkonzentration im Immersions- und Kondensationsmodus gefunden werden. Der Depositionsgefriermodus blieb unauffällig. Zwischen Bodenfeuchte und IN-Konzentration konnten ebenfalls wie bei der Reevaluierung der alten Messdaten Signifikanzen festgestellt werden.
Die neu eingeführte Immersionsmessmethode und die korrigierte Methode zur Bestimmung von Depositions- und Kondensationsgefrierkernen liefern Messdaten, welche im Bereich anderer Eiskeimzähler liegen. Vergleiche mit Parametrisierungen zeigen, dass die Messwerte dem aktuellen Stand der Forschung entsprechen und davon ausgegangen werden kann, dass sie vertrauenswürdig und belastbar sind.
Das Capillary-Leak-Syndrom (CLS) präsentiert sich als plötzlicher Verlust von intravasaler Flüssigkeit ins Interstitium und kann als Komplikation nach einer Stammzelltransplantation (SZT) auftreten. Das Ziel der vorliegenden Studie war es, die CLS-Inzidenz, Risikofaktoren für das Auftreten und den Einfluss auf das Überleben nach SZT in einer pädiatrischen Kohorte allogener SZT-Empfänger zu bestimmen. Wir untersuchten die klinischen Berichte aller Patienten unter 18 Jahren, die in der Abteilung für Stammzelltransplantation der Klinik für Kinder- und Jugendmedizin des Universitätsklinikums Frankfurt am Main zwischen Januar 2002 und Mai 2012 allogen stammzelltransplantiert wurden. 234 Patienten erhielten 275 SZT im oben genannten Zeitraum. In 15 Fällen (5,5 %) entwickelten Patienten ein CLS.
Bedingung für die Vergabe der CLS-Diagnose war das Vorhandensein dieser drei Kriterien: Gewichtszunahme von über 3 % des Körpergewichts in 24 Stunden, positive Ein-/Ausfuhrbilanz trotz Diuretikagabe und Ödeme.
Die Wahrscheinlichkeit, ein CLS zu entwickeln war signifikant höher bei Patienten, die auch unter einer Sepsis litten (p < 0,001). Patienten mit CLS hatten zudem ein höheres Risiko innerhalb der ersten 30 Tage nach SZT an einer GvHD zu erkranken (p = 0,005).
10 der 15 CLS-Patienten mussten intensivmedizinisch behandelt werden.
CLS hängt signifikant mit dem Gesamtüberleben an Tag + 100 und Tag + 365 nach SZT zusammen (p < 0,001), indem es einen starken prädiktiven Faktor für die TRM an Tag + 100 und Tag + 365 nach SZT darstellt (p < 0,001).
CLS ist eine schwere Komplikation bei pädiatrischen SZT-Empfängern. Der biologische Zusammenhang zwischen Sepsis, GvHD und CLS-Entwicklung im Hinblick auf Zytokinfreisetzung und Endothelschaden sollte in weiteren Studien untersucht werden, um neue zielgerichtete Therapien zu unterstützen.
Ziel dieser anthropometrischen Studie war es, an einem Kollektiv von 1176 Probanden im Alter von 7-25 Jahren die Kollmann´schen Proportionen zu bestimmen und den Einfluss von Alter, Geschlecht und fazialem Wachstumstyp auf die Verteilung der Gesichtsdrittel zu analysieren. Weiterhin sollte die Übereinstimmung von anthropometrischer und kephalometrischer Messung der vertikalen Gesichtsproportionen untersucht werden. Zu diesem Zweck wurde bei 29 Probanden aus dem vorliegenden Untersuchungskollektiv die Länge von Mittel- und Untergesicht sowohl direkt im Gesicht des Probanden als auch röntgenkephalometrisch bestimmt, wobei die Zeitdifferenz zwischen den beiden Messungen durchschnittlich 3,6 1,7 Monate (1-6 Monate) betrug. Obwohl sich im Mittelgesicht wie auch im Untergesicht mit Korrelationskoeffizienten von R = 0,69 und R = 0,73 eine hohe und statistisch signifikante Übereinstimmung der anthropometrischen und kephalometrischen Messergebnisse zeigte, kann nicht von einer exakten Übereinstimmung ausgegangen werden. Der Mittelwertvergleich ergab, dass die anthropometrischen Messwerte niedriger ausfielen als die kephalometrischen. Aus diesem Grund ist in Übereinstimmung mit der Literatur der Anthropometrie bei Messungen zu Fragen der fazialen Ästhetik gegenüber der Kephalometrie der Vorzug zu geben. Die vorliegende Erhebung anthropometrischer Daten zur vertikalen Gesichtsproportionierung ergab, dass eine ideale Gesichtsdrittelung mit einer Übereinstimmung aller drei Gesichtsdrittel nur bei einem der 1176 Probanden (0,1%) zu beobachten war. Oberes und mittleres Gesichtsdrittel stimmten in 16 Fällen (1,4%) überein, mittleres und unteres Gesichtsdrittel in 8 Fällen (0,7%) und oberes und unteres Gesichtsdrittel in 73 Fällen (6,2%). Die Ermittlung von Durchschnittswerten zeigte, dass das obere und untere Gesichtsdrittel mit einem Anteil von median je 35,9% der Gesichtshöhe gleich groß waren und 28,2% auf das mittlere Gesichtsdrittel entfielen. Die erwartete altersabhängige Proportionsverschiebung vom Hirn- zum Gesichtsschädel konnte im vorliegenden Untersuchungskollektiv im Widerspruch zu den Ergebnissen anderer Studien nicht beobachtet werden. Dennoch ist für die klinische Anwendung der Kollmann´schen Proportionen festzuhalten, dass bei Kindern und Jugendlichen vor Abschluss der Pubertät eine Veränderung der Gesichtsproportionen möglich und ein Rückschluss auf das Vorliegen einer Dysgnathie daher zu diesem Zeitpunkt nicht zulässig ist. Der Einfluss des Geschlechts erwies sich für das obere Gesichtsdrittel als statistisch signifikant, wobei der Anteil bei den männlichen Probanden mit 35,6% niedriger war als bei den weiblichen Probanden mit 36,0%. Im Mittelgesicht war kein statistisch signifikanter Unterschied zwischen Jungen und Mädchen nachweisbar (28,2% vs. 28,4%). Der Anteil des Untergesichts war bei männlichen Probanden statistisch signifikant größer als bei weiblichen (36,5% vs. 36,0%). Die vorliegenden Ergebnisse lassen in Übereinstimmung mit der Literatur den Schluss zu, dass beim männlichen Geschlecht eine geringfügige Dominanz des Untergesichts auf Kosten des Stirndrittels vorliegt. Hinsichtlich des Einflusses des zugrundeliegenden Wachstumsmusters zeigte sich, dass die Werte für das obere Gesichtsdrittel beim brachyfazialen Typ statistisch signifikant höher waren (brachyfazial vs. dolichofazial: 36,3% vs. 35,4%; brachyfazial vs. doliochofazial/normofazial: 36,3% vs. 35,6%). Ein signifikanter Einfluss des fazialen Typs auf den Anteil des Mittelgesichts konnte nicht nachgewiesen werden. Der Anteil des unteren Gesichtsdrittels fiel beim brachyfazialen Wachstumstypus statistisch signifikant kleiner aus als beim dolichofazialen Wachstumstypus (brachyfazial vs. dolichofazial/ normofazial: 35,6% vs. 36,1%; brachyfazial vs. dolichofazial: 35,6% vs. 36,7%; brachyfazial/normofazial vs. dolichofazial: 36,0% vs. 36,7%). Zusammenfassend lassen die erzielten Resultate in Übereinstimmung mit der Literatur den Schluss zu, dass eine ideale Gesichtsdrittelung (Kollmann´sche Proportionen) bei der Mehrheit der Bevölkerung nicht nachweisbar ist und die vertikalen Gesichtsproportionen dem Einfluss von Alter, Geschlecht und Wachstumstyp unterliegen, was bei deren Bewertung berücksichtigt werden muss.
Beiträge zur spät- und postglazialen Fluß- und Landschaftsgeschichte im nördlichen Oberrheingraben
(2005)
Die spät- und postglaziale Fluß- und Landschaftsgeschichte im nördlichen Oberrheingraben ist durch einen mehrmaligen Wandel der fluvialen Geomorphodynamik gekennzeichnet. Im Rahmen dieser Studie waren unterschiedliche Entwicklungsphasen der Landschaft mit Hilfe verschiedener Methoden (14C-AMS, IR-OSL, Pollen- und Schwermineralanalysen) erstmals präziser zu datieren. Ab dem Spätglazial entwickelte der nördliche Oberrhein drei Mäandergenerationen. Die Entstehung der Älteren Mäandergeneration setzte vor dem Spät-Allerød ein und dauerte bis in das Atlantikum an, ehe im späten Atlantikum ein flußdynamischer Umbruch die Bildung der Mittleren Mäandergeneration einleitete. Damit begann eine Phase mit vorwiegend toniger Auensedimentation („Schwarze Tone“). Es ist nicht auszuschließen, daß dieses Geschehen teilweise durch die Effekte neolithischer Landnutzung beeinflußt war. Auch der Umbruch zur Jüngsten Mäandergeneration im Übergang vom Subboreal zum Subatlantikum war sicherlich nicht rein klimatisch gesteuert. Wahrscheinlich ist das nun wieder stärker furkativ geprägte Fließmuster und die einhergehende Vergröberung der Auenfazies auf die Überlagerung von natürlichen Abläufen mit anthropogenen Beeinflussungen zurückzuführen. Dafür spricht, daß die Landschaft während der Eisen- und der Römerzeit weitgehend entwaldet war. Die parallel dazu durchgeführten Untersuchungen am spätglazialen Bergstraßen-Neckar erlauben die zeitliche Trennung eines älteren Mäanderkurses, der in der Jüngeren Dryas verlandete, von einem jungdryaszeitlichen Verlauf. In der Paläorinne dieses jüngsten Laufes setzte im frühen Präboreal das Wachstum von Niedermootorfen ein. Das dokumentiert, daß der Bergstraßen-Neckar spätestens im beginnenden Holozän vollständig deaktiviert war. Die Abschnürung des Bergstraßenlaufes erfolgte vermutlich im Anschluß an die letzte würmzeitliche Flugsandphase, die nach schwermineralogischen und tephrostratigraphischen Befunden im Untersuchungsgebiet in die Jüngere Dryas zu stellen ist. Dabei wurde das auf der Oberen Niederterrasse existierende, endpleni- bis frühspätglaziale, zwischenzeitlich vom Bergstraßen-Neckar teilweise fluvial umgelagerte, ältere Dünenrelief überweht, während auf der Unteren Niederterrasse lokale Dünenvorkommen entstanden. Möglicherweise dauerte die Flugsandbildung örtlich bis in das früheste Präboreal an, bevor in den späteren Zeiten des Holozän ein anthropogen induziertes Aufleben der Flugsandaktivität zu beobachten ist.
Im Rahmen dieser Arbeit wurde die Funktion ausgewählter Gene näher charakterisiert und ihr globaler Einfluß auf die Regulation der Genexpression untersucht. Im Fokus der Untersuchungen stand ein Gen, welches im Rahmen der Promotion von Alexander Zaigler in der Arbeitsgruppe Soppa (Universität Frankfurt) zunächst als Transkriptionsregulator ähnlich zu rspA aus E. coli identifiziert wurde. Zu Beginn dieser Arbeit konnte durch in silico Analysen das entsprechende Genprodukt zur Enolase Superfamilie (COG1441) zugeordnet werden. Mit Hilfe der „pop-in/pop-out“ Methode wurde das Gen in H. volcanii in frame deletiert und durch Wachstumsversuche, Northern- sowie Westernblot Analysen näher charakterisiert. Bei der Untersuchung des Wachstums konnte ein bemerkenswerter Phänotyp entdeckt werden: nur der Wechsel der Nährstoffquelle von reichhaltigen zu armen Bedingungen resultierte in einer dreitägigen Lagphase. Darüber hinaus wurde die Genexpression im Laufe eines Wachstumzyklus mittels Northern- und Westernblot Analysen bestimmt. Während das Transkript in reichhaltigem Medium nur transient expremiert wurde, wurde es in nährstoffarmen Bedingungen in allen Wachstumsphasen sehr stark induziert. Durch die Ergebnisse konnte zudem eine translationale Regulation der Genexpression nachgewiesen werden. Die Resultate offenbarten eine wichtige Funktion bei der Transition von reichem zu ärmerem Nährstoffangebot und führten schließlich zur Genbezeichnung iftA („important for transition A“). Desweiteren wurden Transkriptomuntersuchungen der Deletionsmutante im Vergleich zum Wildtyp zum Zeitpunkt der höchsten transienten Expression von iftA durchgeführt. Dadurch konnte gezeigt werden, dass iftA etwa 1% aller Gene des Genoms beeinflußt und gleichzeitig die Zahl differentieller Funktionen dieser Gene sehr gering ist. Die Ergebnisse führten insgesamt zu der Annahme, dass iftA eine Doppelfunktion besitzt, sowohl als enzymatisches Protein im Energiestoffwechsel als auch als essentieller Regulator mit noch unbekannter Funktion. Neben iftA fiel das Augenmerk auf mehrere Gene, die im Rahmen der Promotion von Neta Altman-Price an der Universität in Tel-Aviv als Histon-Acetylasen und –Deacetylasen identifiziert wurden. Zudem konnte in H. volcanii ein essentielles Gen, welches für ein Histon kodiert, entdeckt werden. Das Histon besitzt konservierte Lysinreste, die im eukaryotischen Histon H3 Ziele für eine posttranslationale Acetylierung sind. Für die weiteren Untersuchungen wurden die Lysinreste irreversibel zum einen in Glutamin (acetylierter Zustand) und zum anderen in Arginin (deacetylierter Zustand) mutiert. Im Rahmen dieser Arbeit wurden die Funktionen und die Einflüsse der beiden Histonmutanten sowie einer Acetylase- (delta pat1) und einer Deacetylase-Deletionsmutante (delta sir2) auf die globale Genregulation analysiert. Dazu wurden zunächst Transkriptomuntersuchungen in der exponentiellen Wachstumsphase mittels Microarray Analysen an den Mutanten im Vergleich zum Wildytp durchgeführt. Die Ergebnisse zeigten einen erheblich stärkeren Einfluß auf die Regulation der Genexpression durch das acetylierte Histon sowie der Deacetylase-Deletionsmutante im Vergleich zu den Ergebnissen des deacetylierten Histons und der Acetylase-Deletionsmutante. In der exponentiellen Wachstumsphase liegt das Histon in H. volcanii daher in überwiegend deacetylierter Form vor. Durch die Analysen konnte auch demonstrieren werden, dass Sir2 und das Histon eine regulatorische Wirkung auf exakt die gleichen Gene ausüben und daher unmittelbar miteinander in Verbindung stehen. Die experimentelle Bestätigung dieses Zusammenhangs stellt im Reich der Archaea bisher ein absolutes Novum dar. Die Untersuchungen des Transkriptoms der delta sir2 Mutante enthüllte zudem einen positiven Einfluß von Sir2 auf ein größeres Gencluster (HVO_1201-25). Die Gene dieses Clusters konnten durch in silico Analysen der Chemotaxis und der Flagellenbiosynthese zugeordnet werden. Für die weitere Charakterisierung der Deletionsmutante wurden daher Untersuchungen zur Bestimmung der Motilität von H. volcanii durchgeführt. Es konnte gezeigt werden, dass die Deletion von Sir2 die Beweglichkeit und gerichtete Fortbewegung von H. volcanii in erheblichem Maße beeinflußte, während die Biosynthese der Flagellen nicht beeinträchtigt war. Die Deacetylierung spielt daher eine unmittelbar Rolle bei der Signaltransduktion und Motilität. Insgesamt konnte durch die Arbeit gezeigt werden, dass die Acetylierung und Deacetylierung von Proteinen durch Pat1 resp. Sir2 die Regulation der Genexpression beeinflußt. Dies geschieht in H. volcanii indirekt durch die posttranslationale Veränderung von internen Signalen oder direkt durch die Modulierung des Histons und die damit verbundene Änderung der DNA-Struktur.
Die vorliegende Dissertation behandelt die Entwicklung eines Verkehrssimulationssystems, welches vollautomatisch aus Landkarten Simulationsgraphen erstellen kann. Der Fokus liegt bei urbanen Simulationsstudien in beliebigen Gemeinden und Städten. Das zweite fundamentale Standbein dieser Arbeit ist daher die Konstruktion von Verkehrsmodellen, die die wichtigsten Verkehrsteilnehmertypen im urbanen Bereich abbilden. Es wurden Modelle für Autos, Fahrräder und Fußgänger entwickelt.
Die Betrachtung des Stands der Forschung in diesem Bereich hat ergeben, dass die Verknüpfung von automatischer Grapherstellung und Modellen, die die Wechselwirkungen der verschiedenen Verkehrsteilnehmertypen abbilden, von keinem vorhandenen System geleistet wird. Es gibt grundlegend zwei Gruppen von Verkehrssimulationssystemen. Zum Einen existieren Systeme, die hohe Genauigkeiten an Simulationsergebnissen erzielen und dafür exakte (teil-)manuelle Modellierung der Gegebenheiten im zu simulierenden Bereich benötigen. Es werden in diesem Bereich meist Verkehrsmodelle simuliert, die die Verhaltensweisen der Verkehrsteilnehmer sehr gut abbilden und hierfür einen hohen Berechnungsaufwand benötigen. Auf der anderen Seiten existieren Simulationssysteme, die Straßengraphen automatisch erstellen können, darauf jedoch sehr vereinfachte Verkehrsmodelle simulieren. Es werden meist nur Autobewegungen simuliert. Der Nutzen dieser Herangehensweise ist die Möglichkeit, sehr große Szenarien simulieren zu können.
Im Rahmen dieser Arbeit wird ein System mit Eigenschaften beider grundlegenden Ansätze entwickelt, um multimodalen innerstädtischen Verkehr auf Basis automatisch erstellter Straßengraphen simulieren zu können. Die Entwicklung eines neuen Verkehrssimulationssystems erschien notwendig, da sich zum Zeitpunkt der Literaturbetrachtung kein anderes vorhandenes System für die Nutzung zur Erfüllung der genannten Zielstellung eignete. Das im Rahmen dieser Arbeit entwickelte System heißt MAINSIM (MultimodAle INnerstädtische VerkehrsSIMulation).
Die Simulationsgraphen werden aus Kartenmaterial von OpenStreetMap extrahiert. Kartenmaterial wird zuerst in verschiedene logische Layer separiert und anschließend zur Bestimmung eines Graphen des Straßennetzes genutzt. Eine Gruppe von Analyseschritten behebt Ungenauigkeiten im Kartenmaterial und ergänzt Informationen, die während der Simulation benötigt werden (z.B. die Verbindungsrichtung zwischen zwei Straßen). Das System verwendet Geoinformationssystemkomponenten zur Verarbeitung der Geodaten. Dies birgt den Vorteil der einfachen Erweiterbarkeit um weitere Datenquellen.
Die Verkehrssimulation verwendet mikroskopische Verhaltensmodelle. Jeder einzelne Verkehrsteilnehmer wird somit simuliert. Das Modell für Autos basiert auf dem in der Verkehrsforschung weit genutzten Nagel-Schreckenberg-Modell. Es verfügt jedoch über zahlreiche Modifikationen und Erweiterungen, um das Modell auch abseits von Autobahnen nutzen zu können und weitere Verhaltensweisen zu modellieren. Das Fahrradmodell entsteht durch geeignete Parametrisierung aus dem Automodell. Zur Entwicklung des Fußgängermodells wurde Literatur über das Verhalten von Fußgängern diskutiert, um daraus geeignete Eigenschaften (z.B. Geschwindigkeiten und Straßenüberquerungsverhaltensmuster) abzuleiten. MAINSIM ermöglicht folglich die Betrachtung des Verkehrsgeschehens auch aus der Sicht der Gruppe der Fußgänger oder Fahrradfahrer und kann deren Auswirkungen auf den Straßenverkehr einer ganzen Stadt bestimmen.
Das Automodell wurde auf Autobahnszenarien und innerstädtischen Straßengraphen evaluiert. Es konnte die gut verstandenen Zusammenhänge zwischen Verkehrsdichte, -fluss und -geschwindigkeit reproduzieren. Zur Evaluierung von Fahrradmodellen liegen nach dem besten Wissen des Autors keine Studien vor. Daher wurden an dieser Stelle der Einfluss der Fahrradfahrer auf den Straßenverkehr und die von Fahrrädern gefahrenen Geschwindigkeiten untersucht. Das Fußgängermodell konnte die aus der Literaturbetrachtung ermittelten Verhaltensweisen abbilden.
Nachdem die wichtigsten Komponenten von MAINSIM untersucht wurden, begannen Fallstudien, die verschiedene Gebiete abdecken. Die wichtigsten Ergebnisse aus diesem Teil der Arbeit sind:
- Es ist möglich, mit Hilfe maschineller Lernverfahren Staus innerhalb Frankfurts vorherzusagen.
- Nonkonformismus bezüglich der Verkehrsregeln kann je nach Verhalten den Verkehrsfluss empfindlich beeinflussen, kann aber auch ohne Effekt bleiben.
- Mit Hilfe von Kommunikationstechniken könnte in der Zukunft die Routenplanung von Autos verbessert werden. Ein Verfahren auf Basis von Pheromonspuren wurde im Rahmen dieser Arbeit untersucht.
- MAINSIM eignet sich zur Simulation großer Szenarien. In der letzten Fallstudie dieser Arbeit wurde der Autoverkehr eines Simulationsgebietes um Frankfurt am Main herum mit ca. 1,6 Mio. Trips pro Tag simuliert. Da MAINSIM über ein Kraftstoffverbrauchs- und CO2-Emissionsmodell verfügt, konnten die CO2-Emissionen innerhalb von Frankfurt ermittelt werden. Eine angekoppelte Simulation des Wetters mit Hilfe einer atmosphärischen Simulation zeigte, wie sich die Gase innerhalb Frankfurts verteilen.
Für den professionellen Einsatz in der Verkehrsforschung muss das entwickelte Simulationssystem um eine Methode zur Kalibrierung auf Sensordaten im Simulationsgebiet erweitert werden. Die vorhandenen Ampelschaltungen bilden nicht reale Ampeln ab. Eine Erweiterung des Systems um die automatische Integrierung maschinell lesbarer Schaltpläne von Ampeln im Bereich des Simulationsgebietes würde die Ergebnisgüte weiter erhöhen.
MAINSIM hat mehrere Anwendungsgebiete. Es können sehr schnell Simulationsgebiete modelliert werden. Daher bietet sich die Nutzung für Vorabstudien an. Wenn große Szenarien simuliert werden müssen, um z.B. die Verteilung der CO2-Emissionen innerhalb einer Stadt zu ermitteln, kann MAINSIM genutzt werden. Es hat sich im Rahmen dieser Arbeit gezeigt, dass Fahrräder und Fußgänger einen Effekt auf die Mengen des Kraftstoffverbrauchs von Autos haben können. Es sollte bei derartigen Szenarien folglich ein Simulationssysytem genutzt werden, welches die relevanten Verkehrsteilnehmertypen abbilden kann. Zur Untersuchung weiterer wissenschaftlicher Fragestellungen kann MAINSIM beliebig erweitert werden.
In der durchgeführten Studie erfolgte die Untersuchung des visuellen Arbeits-gedächtnisses von bipolaren Patienten im Vergleich zu gesunden Kontrollen. Es erfolgten bereits viele Untersuchungen an Patienten mit bipolarer Störung. Wird das Hauptaugenmerk auf die kognitiven Funktionen der Patienten gelegt, so konnte bereits in einigen Studien gezeigt werden, dass nicht nur in depressi-ver oder manischer, sondern auch in euthymer Stimmungslage kognitive Defizi-te vorliegen. Zur näheren Untersuchung der Funktionen des visuellen Arbeits-gedächtnisses der Patienten mit bipolarer Störung wurde daher eine fMRT-Untersuchung durchgeführt. Hier wurden Patienten, die an bipolarer Störung erkrankt sind, mit gesunden Kontrollen verglichen. Dabei wurden die bipolaren Patienten in euthymer Stimmungslage untersucht. Weder in Antwortrichtigkeit noch Reaktionsgeschwindigkeit konnte ein signifikanter Gruppenunterschied nachgewiesen werden. Außerdem wurde in der Untersuchung eine Differenzie-rung zwischen den einzelnen Phasen gemacht, die eine Gedächtnisinformation durchläuft. Bei diesen Phasen handelt es sich um Enkodierungs-, Halte- und Abrufphase. Hierbei konnten veränderte Aktivierungsmuster an diversen Hirn-strukturen der bipolaren Patienten dargestellt werden. Diese Veränderungen ziehen sich durch alle drei Phasen der Gedächtniskonsolidierung und können vor allem im präfrontalen Kortex nachgewiesen werden. Es handelt sich dabei vor allem um eine schwächere Aktivierung des präfrontalen Kortex (PFC) der bipolaren Patienten im Vergleich zu gesunden Kontrollen. Unter anderem ist das Arbeitsgedächtnis im PFC lokalisiert. Diese Ergebnisse scheinen ein Hin-weis dafür zu sein, dass bei den bipolaren Patienten neuronale Defizite im visu-ellen Arbeitsgedächtnis vorliegen.
Im Rahmen der vorliegenden Arbeit werden zum ersten Mal die Ökologie, Morphologie und Systematik von Pilzen untersucht, die assoziiert mit Haut- und Nagelläsionen von ambulanten Patienten sowie von Patienten dermatologischer Praxen in der Provinz Chiriquí im Westen Panamas nachgewiesen wurden. Die Pilze werden klassifiziert nach dem klinischen D-H-SSystem von Rieth und entsprechend ihrer Position im phylogenetischen System der Pilze. Die Morphologie der verschiedenen Arten wird dokumentiert auf der Grundlage von Kulturen und lichtmikroskopischer Untersuchungen durch Beschreibungen sowie Zeichnungen und Fotographien charakteristischer Strukturen. Die Pathogenität der einzelnen Pilzstämme wurde nicht nachgewiesen, sondern auf der Grundlage von Angaben aus der Literatur diskutiert. Außerdem lieferte die Literatur Daten zum Vorkommen der Pilze an Pflanzen und anderen Substraten in der Natur.
In Panama wurden zahlreiche klinische Proben untersucht, von denen ca. 100 Pilzstämme nach Deutschland geschickt wurden. Dort konnten 80 Stämme weiter kultiviert und detailliert untersucht werden. Mehr als 22 verschiedene Arten wurden beobachtet, die 17 verschiedenen Gattungen angehören. Sie entsprechen drei verschiedenen Arten von Dermatophyten, mindestens drei Arten von Hefen und 16 verschiedenen Schimmel- oder sonstigen Pilzarten.
Mit Ausnahme von Hormographiella verticillata wurden ausschließlich imperfekte Stadien beobachtet, und zwar überwiegend von verschiedenen Vertretern der Ascomycota: Dothideales: Scytalidium dimidiatum (6 Stämme), Eurotiales: Aspergillus spp. (4), Paecilomyces lilacinus (2), Penicillium sp. (2), Hypocreales: Fusarium lichenicola (3), F. solani (4), F. subglutinans (1), Microascales: Scopulariopsis brevicaulis (2), Onygenales: Trichophyton mentagrophytes (2), T. rubrum (9), T. tonsurans (7), Ophiostomatales: Sporothrix schenckii (1), Pleosporales: Curvularia geniculata (1), Polystigmatales: Colletotrichum gloeosporioides (1), Sordariales: Nigrospora sphaerica (1), Saccharomycetales: Candida spp. (12), Geotrichum candidum (8), incerte sedis: Pestalotiopsis cf. tecomicola (1), Tritirachium oryzae (1). Vertreter der Basidiomycota sind: Agaricales: Hormographiella verticillata bzw. Coprinellus domesticus (3), Polyporales: Unbekannter Basidiomycet (1), Trichosporonales: Trichosporon cutaneum (6).
Im Rahmen dieser Studie waren Schimmelpilze die am häufigsten bei Haut- und Nagelläsionen angetroffenen Pilze. Unter diesen waren Fusarium-Arten und Scytalidium dimidiatum besonders häufig vertreten. Candida-Arten wurden ebenfalls oft isoliert. Die wichtigste Art unter den Dermatophyten war Trichophyton rubrum. Die prozentualen Anteile der verschiedenen Gruppen entsprechen gut den von anderen Autoren aus anderen Regionen publizierten Ergebnissen. Dies erklärt sich aufgrund der ökologischen Tatsache, dass die Sporen der Schimmelpilze fast überall in der Natur vorhanden sind und diese Pilze viele verschiedene Substrate nutzen können. Candida-Arten gehören zur normalen Flora des Menschen, können aber bei immunodefizienten Patienten, Diabetikern u.a. schwere Haut- und Schleimhautinfektionen, sowie Organerkrankungen verursachen. Dermatophyten sind als Krankheitserreger oberflächlicher Hautmykosen bekannt.
Zum ersten Mal wird das Vorkommen von Hormographiella verticillata in Amerika nachgewiesen. Dieses imperfekte Stadium eines Basidiomyceten hat in Kultur Fruchtkörper gebildet, die als Coprinellus domesticus bestimmt wurden. Damit wurde zum ersten Mal die Anamorph-Teleomorph-Verbindung zwischen diesen beiden Arten festgestellt, die durch eine molekular-phylogenetische Analyse von LSU rDNA (große Untereinheit der ribosomalen DNA) unterstützt wird. Für diese Analyse wurden andere Stämme und Genbank-Daten zum Vergleich herangezogen.
In den Kulturen von H. verticillata entstehen vor der Entwicklung der Fruchtkörper asexuelle sterile Hyphen, die als Ozonium-Stadium bezeichnet werden können. Zum Vergleich wurden Herbarbelege von verschiedenen Arten dieser Gattung bearbeitet. Die Arten sind morphologisch nicht unterscheidbar, weshalb vorgeschlagen wird, nur den Gattungsnamen zur Bezeichnung des entsprechenden Entwicklungsstadiums zu benutzen.
Es war nicht möglich, aufgrund morphologischer Merkmale den Stamm des Unbekannten Basidiomyceten zu bestimmen. Erst eine molekular-phylogenetischer Analyse von LSU rDNA mit Vergleichssequenzen aus der Genbank zeigte, dass der Pilz nahe verwandt ist mit Vertretern der Polyporales.
Zusammenfassung und Ausblick
Wissenschaftliche Untersuchungen der quantitativen und qualitativen Erfassung von Mikroperfusion, sowie der peripheren Durchblutung, erfolgen seit dem 19. Jahrhundert. Anfangs registrierte man die Blutströmungsgeschwindigkeit mit mechanischen Stromuhren und durch direkte Beobachtung durchtrennter Muskelvenen (Hürthle 1939). Erst Ende der dreißiger Jahre bestand anhand der Entwicklung elektromagnetischer Strömungsmessung die Möglichkeit, die Durchblutung quantitativ zu erfassen (Leyk 1999). Mit Verfahren wie Ultraschall und Laser Doppler Methoden stehen heutzutage wichtige diagnostische Messverfahren zur Verfügung. Dazu dienen kontinuierliche und nicht-invasive Erfassungsmöglichkeiten der Durchblutungsdynamik, d.h. ohne die biologischen Funktionen traumatisch oder thermisch zu beeinflussen. Die Laser Doppler Fluxmetrie wurde erstmalig von Riva et al.1972 verwendet. Damit konnte erstmalig der Bluttfluss in kleinen Gefäßen aufgezeichnet werden. Ähnlich wie bei der herkömmlichen Dopplermessung mit Hilfe von Schallwellen, basiert die Technik auf dem von Christian Doppler (1803-1853) beschriebenem Prinzip der Frequenzverschiebung von reflektierten Schallwellen durch sich bewegende Teile und ermöglicht in Echtzeit-Analyse, Blutflussdaten der Hautdurchblutung zu erheben. Als Weiterentwicklung ermöglicht die Methodik der Laser Doppler Spektroskopie, die Durchblutung tieferer Gewebeschichten darzustellen. Die Beurteilung des Blutflusses und der Strömungsgeschwindigkeit des Blutes - als die elementaren Größen zur Beschreibung der Kreislaufsituation und Gewebsdurchblutung - ist von hoher klinischer Relevanz. In dieser Studie dienten dazu (n=19) gesunde Proband(-innen), welche auf einem Fahrrad-Spiroergometer mit ansteigender, erschöpfungslimitierter Belastung nach BAL und kontinuierlicher Steadystate-Belastung (100W; 70W), untersucht worden sind. Die Durchblutungsmessung mit der Methode der Laser Doppler Spektrokopie (LDS) erfolgte jeweils vor und nach Intervention über fünf Minuten an der rechten Wade als Vertreter der arbeitenden, peripheren Muskulatur und am absteigenden Teil des Trapezmuskels der rechten Schulter als repräsentativer Charakter einer zentralen nicht-arbeitenden, ruhenden Muskulatur. Die Messungen wurden unter standardisierten Bedingungen durchgeführt. Das wesentliche Ziel dieser Studie war, Informationen über die Unterschiede in der Durchblutung der peripheren, arbeitenden Muskulatur und der ruhenden, nicht-arbeitenden Muskulatur darzustellen, sowie die thermoregulatorischen Vorgänge anhand unterschiedlicher Belastungsformen nicht-invasiv und atraumatisch mit Hilfe der Laser Doppler Spektroskopie darzustellen. Des Weiteren bestand die Intention eine Korrelationen zwischen der Durchblutung und der Vitalparamter, wie Herzfrequenz und Hauttemperatur, zu zeigen. Die geschlechtsunspezifischen Ergebnisse der nahezu identischen Ruhedurchblutungswerte innerhalb der wöchentlichen Messabständen der beiden unterschiedlichen Belastungsprotokolle (kontinuierlich vs. ansteigend-erschöpfend) für die Mikrogefäßdurchblutung der Muskulatur sowie der kutanen Durchblutung, sind beweisend für die Validität der Methode der Laser Doppler Spektroskopie. Gleichzeitig fanden sich signifikante Unterschiede in der Durchblutung der peripheren Arbeitsmuskulatur in Abhängigkeit von der Belastungsform, während die Hautdurchblutung keine signifikanten Unterschiede aufwies. Dies lässt die Schlussfolgerung zu, dass bereits aerobe Belastungsintensitäten die thermoregulatorischen Vorgänge im Gefäßbett aktivieren. Weiterhin kann man aus den Ergebnissen erkennen, dass über zentral gesteuerte Mechanismen die gesamte kutane Mikrozirkulation des Organismus aktiviert wird, um die bei der körperlichen Aktivität im gesteigerten Zellstoffwechsel und im Rahmen der Energieerzeugung anfallende Abfallwärme optimal an die Umgebung abzuleiten. Obwohl es zu einer signifikanten Steigerung der Durchblutung der ruhenden Muskulatur - sowohl nach der kontinuierlichen als auch nach der ansteigend-erschöpfenden Belastungsmethode - kommt, finden sich keine signifikanten Unterschiede zwischen beiden Belastungsformen. Zusammenfassend und in Übereinstimmung mit der aktuellen Literatur scheint die LDS in der Lage zu sein, bei einer Standardisierung der Untersuchungsmethodik, Veränderungen im mikrozirkulatorischen Blutfluss valide in verschiedenen Gewebetiefen, eindrucksvoll darzustellen. Neben den durch die beschriebenen Aktivitäten bedingten Durchblutungserhöhungen, zeigen die Ergebnisse, dass es durch die LDS ermöglicht wird, rasche Veränderungen im Blutfluss, in unterschiedlichen Gewebetiefen, in Echtzeit - noch bevor klinische Warnzeichen eintreten –darzustellen. Dies ist am Beispiel der ausgeschlossenen Probanden dieser Arbeit zu beobachten. Thermoregulatorische Vorgänge mit Blutflussumverteilung und kutanen Mehrperfusion waren eindrücklich, insbesonders über der beanspruchten und stoffwechselaktivierten Muskulatur (M.gastrocnemius) darstellbar. Die hohe Korrelationen zu anderen Kreislaufparameter, wie die Herzfrequenz lassen den weiteren Einsatz in Diagnostik und Therapie diverser Krankheitsbilder wünschenswert erscheinen. In der Leistungsdiagnostik liegt die Vermutung nahe, dass aufgrund der Artefaktanfälligkeit der Laser Doppler Methode, sowie dem erhöhten Mehraufwand, der Gebrauch eine eher untergeordnete Rolle spielen wird. Trotzdem veranschaulichen die in dieser Studie zusammengetragenen und ermittelten Resultate, dass die Technik der Laser Doppler Spektroskopie auch im Bereich der Sportmedizin zur nicht-invasiven Messung der Durchblutungsdynamik und der terminalen Mikrozirkulation als kleinster und wichtigster Vertreter des Kreislaufes, anwendbar ist.