Refine
Year of publication
- 2010 (276) (remove)
Document Type
- Doctoral Thesis (276) (remove)
Language
- German (276) (remove)
Has Fulltext
- yes (276) (remove)
Is part of the Bibliography
- no (276)
Keywords
- Schmerz (4)
- MALDI-MS (3)
- Zellzyklus (3)
- Chemie und Pharmazie (2)
- Computersimulation (2)
- Elektrophysiologie (2)
- Experiment (2)
- Frankfurt <Main> / Universität / Fachbereich Biochemie (2)
- Hören (2)
- Hörrinde (2)
Institute
- Medizin (139)
- Biochemie und Chemie (30)
- Biowissenschaften (28)
- Pharmazie (25)
- Physik (13)
- Gesellschaftswissenschaften (9)
- Psychologie (8)
- Geowissenschaften (5)
- Kulturwissenschaften (4)
- Extern (2)
Die Operation nach Ross ist ein sicherer und effektiver Weg zur Behandlung von Patienten mit bikuspiden Aortenklappen. Es handelt sich dabei um eine komplexe und technisch anspruchsvolle Operation, die einen potentiell lebenslang haltbaren Ersatz für eine erkrankte Aortenklappe ohne Notwendigkeit einer dauerhaften Antikoagulantientherapie bietet. Sie stellt daher für viele Patienten eine attraktive Alternative zu herkömmlichen Aortenklappenersatz-Operationen dar. Potentielle postoperative Risiken jedoch sind die Entwicklung von Insuffizienzen des pulmonalen Autografts bzw. Stenosen des pulmonalen Homografts. Anpassung der asymmetrischen Aortenwurzel an die Symmetrie des Autograft ist entscheidend für das Erreichen einer primär kompetenten und spannungsfreien Klappenaktion. Reoperation bei Entwicklung eines Pseudoaneurysmas ist eine Hauptkomplikation und unterstreicht die Bedeutung der Verstärkung der verbliebenen subaortalen Anuluswand durch z.B. ein Perikardpatch nach Ringdekalzifikation. In dieser retrospektiven Studie wurden deshalb die klinischen und echokardiographischen Ergebnisse der Anwendung des pulmonalen Autografts in Wurzelersatztechnik an 75 Patienten innerhalb eines Zeitraums von bis zu 10 Jahren dargestellt. Eine Aortenklappeninsuffizienz dritten bis vierten Grades zeigte sich bei zwei Patienten, die jedoch zu einem Klappenersatz mittels mechanischer Prothese führten. Der maximale transaortale Druckgradient befand sich bei den meisten Patienten im physiologischen Bereich. Im Spätverlauf wurden ein Homograft- und fünf Autograftwechsel vorgenommen. Die Freiheit von klappenbezogenen Todesfällen betrug 97,3 %, die Freiheit von klappenbedingten Reoperationen 86,7 %. Der Vergleich mit Untersuchungen anderer Operationsteams zeigte ähnlich gute Ergebnisse – auch wenn unterschiedliche Implantationstechniken verwendet wurden. In dieser Studie führte die Ross-Operation zu exzellenten Ergebnissen bei einer Nachbeobachtungszeit von bis zu 10 Jahren.
Zur Korrektur der Myopie bietet die refraktive Chirurgie prinzipiell die Möglichkeiten entweder die Kornea zu modulieren oder eine phake Intraokularlinse einzusetzen. Bei der Beseitigung einer hochgradigen Myopie von über 6 dpt haben sich jedoch die pIOL durchgesetzt. Besonders irisfixierte Linsen weisen sehr gute Refraktionsergebnisse bei einem geringen Komplikationsprofil auf. Zwei Modelle der Artisan-Linse (optische Zone 5 mm n = 48, optische Zone 6 mm n = 264) wurden in 312 Augen von 176 hochgradig myopen Probanden in der Universitätsaugenklinik Frankfurt am Main eingesetzt. Die Untersuchung und Auswertung erfolgte hinsichtlich der Refraktionsqualität und Komplikationsrate. Zur Beurteilung der Refraktion wurden die Standardparameter der refraktiven Chirurgie (Sicherheit, Wirksamkeit, Vorhersagbarkeit und Stabilität) gemessen und analysiert. Bei Erhebung und Analyse des Komplikationsprofils wurde besonderes Augenmerk auf den Verlust der EZD gerichtet. Die Untersuchungen wurden präoperativ, nach einem Tag, einer Woche, einem Monat und anschließend im Jahresrhythmus durchgeführt. Der präoperative mittlere BKSM von 0,82 wurde bei keiner Folgeuntersuchung unterschritten, so dass der Sicherheitsindex stets über 1 betrug. Kein Patient verlor mehr als eine Zeile beim BKSM. Ein UKSM von 0,8 oder mehr wurde nach einem Jahr in 78%, nach zwei Jahren in 81%, nach drei Jahren in 76%, nach vier Jahren in 60% und nach fünf Jahren in 65% der Fälle beobachtet. Im Vergleich dazu betrug der präoperative BKSM bei 78% der Augen 0,8 oder mehr. Die Vorhersagbarkeit erwies sich innerhalb des gesamten Beobachtungszeitraums als sehr hoch. Bei vier der fünf Jahreskontrollen lagen alle Augen (98% bei der 3-Jahresuntersuchung) innerhalb einer Spannweite von ± 2 dpt und stets mindestens 86% der Augen innerhalb von ± 1 dpt der angestrebten refraktiven Korrektur. Das mittlere sphärische Äquivalent betrug präoperativ -11,24 ±4,46 dpt. Einen Monat nach der Implantation der irisfixierten Linse ergab sich ein Wert von -0,54 ±0,55 dpt. Es kam zu keinen größeren Veränderungen der Refraktion während des Nachbeobachtungszeitraums (Minimum: -0,78 dpt nach fünf Jahren; Maximum: -0,41 dpt nach einem Jahr). Im Mittel betrug die präoperative Endothelzellzahl 2751 ±331 Zellen/mm2 (2004 bis 3508) und verringerte sich durchschnittlich um 2,6% / Jahr auf 2387 ±322 Zellen/mm2 (1605 bis 3164) nach fünf Jahren. Bei Auswertung der EZD der konsekutiven Kohorte wurde an zwei Augen ein Verlust von über 30% registriert (34% bzw. 38%). An keinem Auge wurde ein intrastromales Korneaödem oder eine Trübung der Hornhaut festgestellt. Eine signifikante Assoziation zwischen Pigmentdispersion und erhöhtem intraokularem Druck konnte beobachtet werden (p = 0,047). Schwere Nebenwirkungen wie eine chronische Entzündung oder Glaukom sind nicht aufgetreten. An 9 Augen mußte eine Reenklavation erfolgen, ursächlich hierfür war in einem Fall eine Dezentrierung, in einem anderen eine Iritis und in den übrigen Fällen zu wenig eingehaktes Irisgewebe in den Linsenhaptiken. Eine Explantation war an keinem Auge indiziert. Um ein besseres Refraktionsergebnis zu erzielen, wurde in 21 Augen mittels LASIK und in 9 Augen mittels LRI nachkorrigiert. Diese Langzeitergebnisse der irisfixierten Linse zur Korrektur einer hochgradigen Myopie erweisen sich hinsichtlich Sicherheit, Wirksamkeit, Vorhersagbarkeit und Stabilität als sehr gut. Im Vergleich zum natürlichen Verlust der EZD ist dieser nach Einsatz der pIOL signifikant erhöht, so dass bei jüngeren Patienten strengere Ausschlusskriterien eingeführt werden sollten. Insgesamt erweist sich aber die irisfixierte Linse als eine sehr sichere und komplikationsarme Option zur Beseitigung einer hochgradigen Myopie.
Viele bösartige Tumore wie das kolorektale Karzinom oder das Mamma-Karzinom metastasieren in die Leber. Je nach Primarius kommen unterschiedliche Therapiestrategien in Frage. Die Laserinduzierte Thermotherapie (LITT) gehört neben vielen anderen minimalinvasiven Therapieformen zu den Thermotherapien und stellt eine Ergänzung zur Operation oder Chemotherapie dar und kann auch besonders bei isoliertem Leberbefall als alleinige Therapiestrategie angewandt werden. Vorteile sind die ambulante Durchführbarkeit und eine geringe Komplikationsrate. Nach CT-gesteuerter Punktion der Metastasen wird die Therapie unter Online-Monitoring im MRT mittels thermosensitiver Sequenzen überwacht. Unter Einwirkung der Laserphotonen auf das Lebergewebe kommt es durch Energieabsorption zu einer Erwärmung und Zerstörung des tumorösen Gewebes. Da der Energiebedarf zur Zerstörung der Metastasen auch bei volumengleichen Läsionen sehr schwankt, galt es anhand dieser Arbeit herauszufinden, ob ein Zusammenhang zwischen dem Energiebedarf und der im CT gemessenen Leberdichte besteht. Hierzu wurden 168 Patienten mit 279 Lebermetastasen unterschiedlicher Herkunft in die Studie eingeschlossen, die sich im Zeitraum von März 2006 bis März 2007 einer LITT-Behandlung unterzogen hatten. 55,4 % der Patienten waren mit einer Transarteriellen Chemotherapie (TACE) vorbehandelt, die aufgrund einer Reduzierung des Blutflusses in der Leber zu einem geringeren Energiebedarf führt. Vor der jeweiligen Laserung wurde im Punktions-CT die Leberdichte anhand der Hounsfieldeinheiten und im 24 h-MRT, sowie in den Kontrolluntersuchungen nach 3, 6 und 12 Monaten das Volumen der induzierten Nekrose bestimmt. Der benötigte Energiebedarf konnte aus der Anzahl, der Laufzeit und der Leistung der Laser errechnet werden. Bei Betrachtung der mittleren Nekrosevolumina konnte ein Rückgang in den Kontrolluntersuchungen verzeichnet werden. Dies spricht für Rezidivfreiheit bei der Mehrzahl der Metastasen an der jeweils gelaserten Stelle. Die Analyse der Überlebenszeiten nach der ersten LITT ergab bei einem Beobachtungszeitraum von 25 Monaten im Gesamtkollektiv eine mittlere Überlebenszeit von 21 Monaten, sowie eine kumulative Überlebensrate von 83,33 %. Patienten mit Metastasen des colorektalen Karzinoms wiesen im Mittel eine Überlebenszeit von 22 Monaten und eine Überlebensrate von 86,11 %, die des Mamma-Karzinoms ebenfalls eine mittlere Überlebenszeit von 22 Monaten und eine Überlebensrate von 84,91 % am Ende des Beobachtungszeitraumes auf. HCC-Patienten überlebten im Mittel 19 Monate und hatten eine Überlebensrate von 76,74 % nach 24 Monaten. Hieraus ergeben sich Überlebenszeiten, die deutlich über denen weiterer minimalinvasiver Verfahren, wie der Radiofrequenzablation oder der Mikrowellentherapie liegen. Ein direkter Vergleich mit den konventionellen Therapiemöglichkeiten, wie der chirurgischen Resektion oder der Chemotherapie gelingt bei unterschiedlichen Studiendaten, sowie -voraussetzungen nur schwer. Überlegen ist die LITT gegenüber der chirurgischen Resektion jedoch in der Krankenhausverweildauer und der geringen Invasivität. Gegenüber einer Chemotherapie ist die LITT hinsichtlich einer fehlenden systemischen Therapiekomponente im Nachteil. Nach anfänglicher Untersuchung des Gesamtkollektivs wurden die Patienten in 2 Gruppen unterteilt. Hierbei war das Unterscheidungsmerkmal die Vorbehandlung mit der TACE. Es wurde jeweils die Korrelation des Energiebedarfs mit der Nekrosengröße und den Hounsfieldeinheiten geprüft. Nachdem sich im Gesamtkollektiv und auch in den Untergruppen kein statistisch signifikanter linearer oder einfach exponentieller Zusammenhang zeigte, konnte nach Einteilung der Hounsfieldeinheiten in Dichtebereiche, sowie Berechnung eines mittleren Energiebedarfs nach erneuter Korrelationsberechnung ein positiver Zusammenhang gezeigt werden, so dass bei steigender Gewebsdichte von einem Mehrbedarf an Energie ausgegangen und eine Laserapplikatorenanzahl anhand der Gewebsdichte berechnet werden kann. Da die Streubreite der Werte um den Mittelwert jedoch sehr groß ist, ist fraglich, ob die Berechnung im Vorfeld der Therapie einen Nutzen für die Kosten- und Zeiteffizienz der LITT erbringt. Beim Vergleich des Energiebedarfes der 2 Untergruppen zeigte sich deutlich ein um ca. 0,5 kJ/cm3 niedriger Energiebedarf in der Gruppe der vorembolisierten Patienten, sowie eine im Durchschnitt höhere Gewebsdichte der TACE-Patienten aufgrund geringerer Durchblutung des Lebergewebes nach der Embolisation.
Durchgeführte Arbeiten und Ergebnisse: Zur Erschließung des Themas Lebensmittelverpackungen im Chemieunterricht wurde zunächst eine grundlegende fachliche Recherche durchgeführt, um mögliche thematische Schwerpunkte zu identifizieren und Grundlagen für eine experimentelle Zugänglichkeit zu erarbeiten. Parallel hierzu wurde der derzeitige Stand der fachdidaktischen Forschung unter besonderer Berücksichtigung des Themas Lebensmittelverpackungen erhoben. Es zeigte sich, dass nur vereinzelt auf diese Themenstellung eingegangen wird. Dabei steht allerdings, wie etwa bei dem Recycling von Joghurtbechern, die stoffliche Weiterverwendung von Abfällen im Vordergrund, während die Anforderungen an die Eigenschaften einer Verpackung keine Rolle spielen. Daher erfahren Bau und Funktion unterschiedlicher Verpackungsmaterialien in der vorliegenden Arbeit eine besondere Berücksichtigung. Die vorliegende Arbeit umfasst im Wesentlichen zwei Schwerpunkte: - Die schulexperimentelle Erschließung des Themas Lebensmittelverpackungen für unterschiedliche Klassenstufen, - die exemplarische Ausarbeitung von Unterrichtseinheiten, die die Möglichkeit der Integration der Experimente in die Schulpraxis aufzeigen. Bei der experimentellen Entwicklung stand die Barrierefunktion der Lebensmittelverpackungen und im Hinblick auf die Verträglichkeit mit Lebensmitteln deren chemische Zusammensetzung im Vordergrund. Gesichtspunkte wie die mechanische Belastbarkeit, z. B. die Reißfestigkeit einer Verpackungsfolie, wurden erst in zweiter Linie erarbeitet. Die Struktur-Eigenschaftsbeziehungen wurden thematisiert. Zunächst wurde eine Versuchsreihe ausgearbeitet, die die Funktion von Aluminiumschichten in Lebensmittelverpackungen in das Zentrum der Betrachtung stellt. Hierbei konnte zur Bestimmung der Dicke einer Aluminiumschicht mit schulischen Mitteln ein Verfahren ausgearbeitet werden, in dem die Aluminiumanteile einer ausgemessenen Fläche einer Verpackung gelöst und anschließend über eine Titration bestimmt werden. Diese Versuchsreihe kann auf viele Beispiele angewandt werden und liefert zuverlässige Ergebnisse. Der Nachweis unterschiedlicher Kunststoffe in Lebensmittelverpackungen stand im Mittelpunkt einer zweiten Versuchsserie. Hierbei wurden Versuche zur Analyse von Verpackungsstoffen (Polyolefine und Polykondensate) entwickelt und zusammengestellt. Einfache Versuche zeigen die Möglichkeit zur Trennung der Schichten von Verbundfolien sowie die chemische Beschaffenheit der verwendeten Polymere. Es wird anhand der gewählten Beispiele auf die unterschiedlichen Eigenschaften von Folien, wie Sauerstoffdurchlässigkeit und Wasserdampflöslichkeit, eingegangen. Dabei wird die gezielte Kombination unterschiedlicher Folien berücksichtigt. Eine wesentliche Fragestellung bei der Auswahl von Lebensmittelverpackungen ist die Frage nach der Barrierewirkung gegenüber unerwünschten Stoffen, z.B. von Sauerstoff. Hierbei gelang es, eine Zink-Luft-Batterie so in eine geeignete Schaltung einzubauen, dass sie zum Nachweis des Sauerstoffdurchtritts durch eine Folie verwendet werden kann. Allerdings ist dieser bei üblicherweise verwendeten Folien so gering, dass im Sinne einer didaktischen Reduktion für einen Modellversuch Backpapier eingesetzt wird, um ein Experiment zu erhalten, das in einer Schulstunde durchgeführt werden kann. Eine weitere umfangreiche Versuchsserie wurde zur Durchlässigkeit von PET-Flaschen gegenüber Kohlenstoffdioxid entwickelt. Besonders interessant für Schülerinnen und Schüler sind dabei Experimente, die zeigen, dass PET Kohlenstoffdioxid in geringen Mengen speichert. Exemplarische Unterrichtsentwürfe zeigen, welche konkreten Möglichkeiten für die Umsetzung des Themas gegeben sind. Hierfür wurden exemplarisch Entwürfe zum Forschend-entwickelnden Unterrichtsverfahren, zum Analytisch-synthetischen Verfahren, zum Expertenunterricht, zur Chemie im Kontext, zum Wahldifferenzierten Chemieunterricht und zum Projektunterricht / projektorientierten Chemieunterricht ausgearbeitet. Insgesamt vermittelt die vorliegende Arbeit einen umfassenden Zugang zum Thema Lebensmittelverpackung im Chemieunterricht, wobei ausgehend von den fachlichen Grundlagen die schulexperimentellen Möglichkeiten und Wege der unterrichtlichen Umsetzung entwickelt wurden.
Einführung Seit Einführung der Diffusionstensorbildgebung- (DTI) basierten Traktographie von zerebralen Bahnsystemen besteht der Verdacht einer zu dünnen Ausdehnung der Faserbahnen in der unmittelbaren Nachbarschaft von zerebralen Läsionen. Der gegenüber der tatsächlichen Ausdehnung verminderte Durchmesser verjüngt sich zusätzlich mit zunehmendem Abstand von dem sog. seed-Volume (“seed-VOI”). Die unterrepräsentierte Ausdehnung der Faserbahnen stellt in der neurochirurgischen Operationsplanung und intraoperativen Neuronavigation ein erhebliches Problem bei der Beurteilung der Resektionsgrenzen von Tumoren bzw. der Grenze dringlich zu erhaltender eloquenter Faserbahnen dar. Mit einem zusätzlichen, auf die Läsion fokussierten Traktographie-Algorithmus – Lesion-based Fibertracking (LBFT) – soll die Auswertbarkeit von Faserbahnen in der Umgebung von intrazerebralen Läsionen verbessert werden. Der Algorithmus von LBFT wird vorgestellt und das Verfahren anhand der Darstellung von Bahnen des Tractus corticospinalis (TCS) mit dem Standardverfahren verglichen. Methode In 40 Patienten mit intrazerebralen Läsionen in Nachbarschaft zu kortikospinalen Bahnen (Pyramidenbahn) wurde eine Diffusionstensor-bildgebung und fMRT basierte Faserbahndarstellung des Tractus corticospinalis auf Grundlage eines „tensor-deflection-Algorithmus“ (TEND) durchgeführt. Hierfür wurden Bahnen von den kortikalen motorischen Repräsentationen der Hand, des Fußes und der Zunge zum Hirnstamm visualisiert. Im Standardverfahren wird ein würfelförmiges Volumen – das sog. seed-Volume oder Ursprungsvolumen – im Gyrus praecentralis entsprechend der anatomischen und funktionellen Bildgebung definiert. Ein zweites würfelförmiges Volumen, lokalisiert im Hirnstamm selektiert ausschließlich Fasern welche durch beide Volumen verlaufen. Die resultierenden Fasern werden bezüglich ihres Verlaufes durch typische anatomische Landmarken kontrolliert und ggf. korrigiert. Anschließend wird das Faserbündel mittels einer Oberflächenrekonstruktionstechnik („surface rendering“) dreidimensional rekonstruiert (iPlan 2.5Cranial, BrainLab®, Feldkirchen, Germany). Für das neue Verfahren des LBFT wird die Region definiert, in welcher die Faserbahn des Standardverfahrens der Läsion am nächsten kommt und hier, um die Faserbahn des Standardverfahrens, ein neues seed-Volume platziert, welches das Standardfaserbündel um 10 mm überragt. Traktographie und Segmentierung werden analog dem Standardverfahren durchgeführt. Fasern, die nicht den Gyrus praecentralis erreichen oder nicht durch den Pedunculus cerebri verlaufen, werden eliminiert. Die Faserzahl, die Größe der Faserbahnen und die Größendifferenz zwischen den Bahnen des Standardverfahrens und LBFT werden verglichen und das Verfahren auf inter- und intra-rater Reliabilität geprüft. Ergebnisse Das Standardverfahren und LBFT waren in allen 40 Patienten durchführbar. Die Faserzahl bei LBFT erhöhte sich signifikant gegenüber dem Standardverfahren um 383,27% (p<0,0001). Der maximale Durchmesser in der Ebene, in welcher das Faserbündel der Läsion am nächsten kommt, sowie der Durchmesser in Richtung der Läsion erhöhen sich signifikant um 171,75 % bzw. 196,45 % (jeweils p<0.0001). Daraus folgt eine durchschnittliche Zunahme des Durchmessers in Richtung der Läsion um 4.48mm (± 2.35). Fazit Die Fehleinschätzung des Durchmessers und der Distanz des TCS zu subkortikalen Läsionen bei Anwendung des Standardverfahrens DTI-basierter Traktographie stellt ein erhebliches Problem in der funktionellen neurochirurgischen Operationsplanung und intraoperativen Neuronavigation dar. Durch den zusätzlichen Schritt des LBFT kann die Fehleinschätzung korrigiert und der in vorhergehenden Studien eingeforderte Sicherheitsabstand standardisiert robust und reliabel realisiert werden.
Lorenz von Stein und die Französische Revolution : Zeitgeschichte als Theorie der Gesellschaft
(2010)
Östlich des Rwenzori Gebirges im Westen Ugandas wurden magnetotellurische Messungen durchgeführt. An 23 Stationen wurden Übertragungsfunktionen und Phasen Tensor Elemente zwischen den gemessenen magnetischen- und tellurischen Feldern im Periodenbereich von 10s bis 10000s geschätzt. Die Übertragungsfunktionen deuten eine komplexe drei dimensionale Leitfähigkeitsstruktur innerhalb der Kruste an, insbesondere in der Verbindungszone zwischen dem Rwenzori Gebirge und der östlichen Riftschulter. In dieser Arbeit wird eine alternative Darstellung der Phasen Tensor Ellipsen als Balken eingeführt. Für Perioden größer 100s zeigen die maximalen Phasen der Phasen Tensor Balken aller Stationen einheitlich in SSW-NNE und die Phasen Tensor Invarianten f min und f max weisen eine Differenz von mindestens 20° auf. Dieses auffällige Verhalten und die kleinen vertikalen magnetischen Feldr im gleich Periodenbereich kann mit einer anisotropen Leitfähigkeit in einer Tiefenbereich zwischen 30-50km mit der gut leitenden Richtung senkrecht zur Riftachse erklärt werden. Die Anisotropie könnte ihren Ursprung in orientierten Olivien Kristallen im oberen Mantel haben, wobei die Orientierungsrichtung mit der Delamination der Unterkruste unter den Rwenzoris zusammen hängen kann. Eine gut leitende Zone süd-östlich der Rwenzoris wurde in 15km Tiefe gefunden, die mit einer seismischen low velocity zone übereinstimmt und partielle Schmelzen innerhalb der Kruste andeutet. An allen Stationen steigt die minimale Phase bei der Periode 200s über 45° und zeigt einen Anstieg der elektrischen Leitfähigkeit unterhalb der Lithosphäre an.
Diese Dissertation befasst sich mit der massenspektrometrischen Analytik von Membranproteinen. Diese gestaltet sich aufgrund der hydrophoben Natur der Proteine und der damit verbundenen schlechten Löslichkeit in wässrigen Puffersystemen als deutlich schwieriger als die Untersuchung löslicher Proteine. Einige weitere Probleme entstehen durch die konsequente Verwendung der Referenzprotease Trypsin zur Hydrolyse der Proteine. Sie spaltet ausschließlich Peptidbindungen nach basischen Aminosäuren, die naturgemäß in den unpolaren Helixbereichen der Membranproteine nur vereinzelt anzutreffen sind. Im Rahmen dieser Arbeit wurden auf weniger spezifischen Proteasen basierende Protokolle zur Analyse von ganzen Membranproteomen entwickelt, welche einige der ursprünglichen Probleme umgehen oder zumindest vermindern. Die Proteolysereaktion fand in Anwesenheit von Methanol statt, welcher die Membranstruktur destabilisiert und so die Zugänglichkeit der in die Membran eingebetteten Proteinteile für das Enzym erhöht. Zusätzlich erhöhte sich dadurch die Löslichkeit gebildeter hydrophober Peptide im Puffer. Das neue Protokoll wurde an Bacteriorhodopsin, einem geläufigen Modellsystem für α helikale Membranproteine, erfolgreich etabliert. Bei Verwendung der Proteasen Elastase und Pepsin konnten nach nLC-Trennung und MALDI-MS/MS deutlich mehr Peptide des Membranproteins signifikant identifiziert werden, als es mit Trypsin möglich gewesen ist. Auch qualitativ ergaben sich Unterschiede zwischen beiden Enzymen. Mit den alternativen Enzymen ließen sich nicht nur die hydrophilen peripheren Proteinabschnitte nachweisen, sondern auch zahlreiche Peptide aus den hydrophoben Transmembranbereichen. Das am Modellprotein etablierte Elastase-Protokoll konnte problemlos auf die Analyse des komplexeren Membranproteoms von Corynebacterium glutamicum transferiert werden. So konnten ca. 150 verschiedene Proteine identifiziert werden, darunter auch zahlreiche Membranproteine. Die erzeugten Peptidmischungen wurden nicht nur mittels nLC-MALDI-TOF/TOF sondern auch mit einer nLC-ESI-Orbitrap-Plattform analysiert. Anhand einer detaillierten Analyse der physikochemischen Eigenschaften der entstandenen Peptide konnte gezeigt werden, dass der dabei beobachtete Vorteil des ESI-Instrumentes zu großen Teilen auf die bessere Detektion aliphatischer Neutralpeptide zurückzuführen war. Diese werden bei der MALDI vornehmlich aufgrund der schlechteren Ionisation bei Verwendung der Standardmatrix α-Cyano-4-Hydroxyzimtsäure diskriminiert. Ein weiterer Vorteil des verwendeten ESI-Gerätes ist seine bessere Massengenauigkeit durch den hochauflösenden Orbitrap-Massenanlysator. Wurden die MALDI-TOF/TOF-Fragmentierungsdaten durch, auf einem zweiten Instrument gemessene, genaue MALDI-Orbitrap-Vorläufermassen supplementiert, konnten über 30% mehr Peptide signifikant identifiziert werden. Die gesammelten Daten konnten zur Erhebung einiger Statistiken über Elastase und Pepsin herangezogen werden. Erstmals wurde eine umfassende Untersuchung der Spaltspezifität von Elastase vorgenommen. Das Enzym hydrolysiert in ca. 82% der Fälle nach den kleinen hydrophoben Aminosäuren Ala, Val, Ile, Leu, Ser und Thr. Diese Spezifität ist für proteolytische Schnitte innerhalb der hydrophoben Helixbereiche von Membranproteinen äußerst vorteilhaft. Sie reicht aus, um Peptide Mass Fingerprinting an Einzelproteinen durchzuführen, wie exemplarisch am Modellprotein Bacteriorhodopsin gezeigt wurde. Die für Pepsin erhaltene Spezifität ist hingegen zu undifferenziert für solche Experimente, weshalb hier MS/MS-basierte Strategien vorzuziehen sind. Weitergehende Verbesserungen für Datenbanksuchen mit weniger spezifischen Proteasen wurden vorgeschlagen. Hierzu wurde erstmals eine größere Fragmentierungsstatistik eines nichttryptischen Datensatzes auf einem MALDI-Instrument erstellt, deren Aussage zur Verifizierung von Suchergebnissen in die Algorithmen implementiert werden kann. Beim Einsatz weniger spezifischer Proteasen erhöht sich im Vergleich zu Trypsin die entstehende Peptidkomplexität. Zur Kompensation dessen wurde eine Fraktionierung mittels Off-gel IEF vor der nLC-MALDI-Analyse etabliert. Zwecks direkter Kompatibilität zur nLC wurde ein Off-gel IEF-Protokoll ohne die Probeninjektion störendes Glycerol entwickelt. So ließ sich die dreifache Menge an Peptiden nachweisen, als mit ausschließlich eindimensionaler nLC-Trennung. In Verbindung mit den durch Trypsin erzielbaren Resultaten lassen sich mit den weniger spezifischen Enzymen viele Membranproteine umfassender charakterisieren, da zusätzlich die hydrophoben Transmembranbereiche und somit mehr Informationen für die Analytik zugänglich sind. Der gezielte Einsatz von alternativen Enzymen verbessert die momentane Situation in der Membranproteom-Analytik deutlich und führt diese einen weiteren Schritt an die Analytik löslicher Proteine heran.
Es ist die Hypothese der hier vorgelegten Arbeit, dass bei Asthmatikern oxidativer Stress in der Lunge durch die nichtinvasive Methode der Atemkondensatsammlung und Messung der [H2O2] im EBC erfasst werden kann. Basierend auf dieser Hypothese sollte geprüft werden, inwieweit bei stabilen Patienten mit intermittierendem allergischem Asthma (Grad I, WHO) eine erhöhte [H2O2] im EBC nachweisbar ist und ob es zu einem differenten Anstieg der [H2O2] nach niedrig dosierter Allergenbelastung mit und ohne Supplementation von n-3 PUFA kommt. In dieser Arbeit wurden Patienten mit intermittierendem Asthma und Hausstaubmilbenallergie einbezogen und repräsentierten die Milbenallergikergruppe. Sie wurde in einer randomisierten, doppelblinden und placebokontrollierten fünfwöchigen Studie getestet. Die Patienten erhielten entweder in Gruppe A n-3 PUFA-reiche Kapseln oder in Gruppe B PlaceboKapseln über fünf Wochen. Nach einer dreiwöchigen Aufsättigungsphase wurden die Probanden über zehn Werktage zusätzlich mit niedrig dosiertem Milbenallergen provoziert (FEV1-Abfall 5 %). Atemkondensatuntersuchungen wurden mit Hilfe des ECoScreen® und des ECoCheck® (VIASYS Healthcare GmbH) vor Beginn (V1), nach drei Wochen (V2) und nach der letzten Milbenprovokation (V3) durchgeführt. Zur Erfassung der pulmonalen Entzündung erfasste man zusätzlich bei den genannten Visiten die [eNO] als Kontrollparameter. Weiterhin, zur Erfassung des normalen Verlaufs der [H2O2], wurde bei einer gesunden Kontrollgruppe, die weder provoziert noch supplementiert wurde, die [H2O2] im EBC nach identischem zeitlichen Schema erfasst. In der Milbenallergikergruppe nahmen 30 Patienten und in der Kontrollgruppe 13 Probanden an der Studie teil. Aufgrund technischer Schwierigkeiten und nicht auswertbarer Messwerte, wurden in der Milbenallergikergruppe 17 Patienten und in der Kontrollgruppe neun Probanden zu statistischen Analysen herangezogen. In der Verumgruppe (p = 0,246), der Placebogruppe (p = 0,180) und der Kontrollgruppe (p = 0,185) war kein signifikanter Unterschied hinsichtlich der [H2O2] im EBC zwischen den Visiten vorhanden. Zwischen der Verum- und der Placebogruppe bestand zu keinem Zeitpunkt ein signifikanter Unterschied. In der Milbenallergikergruppe unterschied sich der Verlauf der [H2O2] im EBC deutlich vom Verlauf der [eNO]: Die [H2O2] konnte allenfalls einen Trend (p = 0,101) zwischen den Visiten aufweisen, wobei die [eNO] einen hochsignifikanten (p < 0,001) Unterschied zwischen V3 und V2 aufwies. Es bleibt zum einen offen, ob n-3 PUFA einen antientzündlichen Effekt bei Asthma bronchiale (Grad I, WHO) hat, und zum anderen, inwieweit die Messung der [H2O2] im EBC anhand des ECoCheck® (Fa. VIASYS Healthcare GmbH) als diagnostischer Marker oder zur Verlaufskontrolle bei Asthma bronchiale (Grad I, WHO) geeignet ist.
Die vorliegende Arbeit leistet einen methodologischen und empirischen Beitrag zur Validierung zweier bedeutender Achtsamkeitsskalen, den Deutschen Adaptationen der Mindful Attention and Awareness Scale (MAAS; Brown & Ryan, 2003) und des Kentucky Inventory of Mindfulness Skills (KIMS; Baer, Smith & Allen, 2004). Zunächst stehen methodologische Fragen im Zentrum der Betrachtung. Es werden Methodeneffekte, wie sie in psychologischen Fragebogen vorkommen, vorgestellt. Weiterhin wird der spezifische Effekt der Itempolung beleuchtet, indem empirische Untersuchungen zur Analyse von Itempolungseffekten aus dem Bereich der Self-Esteem-Forschung vorgestellt werden. Anschließend werden statistische Verfahren zur Analyse der sogenannten Multitrait-Multimethod (MTMM)-Daten dargestellt. Hierbei wird die traditionelle MTMM-Analyse von Campbell und Fiske (1959) in Bezug zur konfirmatorischen Faktorenanalyse (CFA) gestellt und eine Übersicht über verschiedene Möglichkeiten zur Spezifikation sog. MTMM-CFA-Modelle gegeben. Die methodologischen Überlegungen dienen als Grundlage für empirische Untersuchungen zur MAAS. Es sollten die Fragen geklärt werden, ob die MAAS auch dann als eindimensional bzw. homogen bezeichnet werden kann, wenn nicht nur die 15 negativ gepolten Items der MAAS, sondern auch positiv gepolte Items zusätzlich zu den negativ gepolten Items eingesetzt werden. Zur Klärung dieser Fragen wurden verschiedene CFA- bzw. MTMMCFA-Modelle spezifiziert und auf ihre Modellanpassung hin überprüft. Es ergab sich, dass für eine modifizierte 10-Item-Version der MAAS (MAAS-Short) mit negativ und positiv gepolten Items Eindimensionalität und Homogenität nachgewiesen werden kann, wenn der Effekt der Itempolung in Form eines Methodenfaktors Berücksichtigung im Rahmen eines MTMM-CFA-Modells findet. Wichtige Kennwerte der MAAS-Short werden berichtet. Mit dem KIMS liegt ein vierdimensionaler Achtsamkeitsfragebogen mit 39 Items vor, der sich für die Forschungspraxis als hilfreich, aber zu wenig ökonomisch erweist. Mögliche Homogenitätsmängel im KIMS werden mit verschiedenen CFA untersucht und führen zu einer 20-Item-Version des KIMS (KIMS-Short). Die vierfaktorielle Struktur des KIMS konnte für das KIMS-Short im Wesentlichen bestätigt werden, wobei für die Skala „Beobachten“ keine Eindimensionalität, sondern – theoretisch plausibel – Zweidimensionalität gefunden wurde. Zusammenhänge des KIMS-Short mit der MAAS, mit Persönlichkeitsvariablen und mit Maßen psychischer Belastung belegen die diskriminante und konvergente Validität des KIMS-Short. Die Ergebnisse aus den methodologischen und empirischen Untersuchungen werden in einer zusammenfassenden Diskussion kritisch gewürdigt und eingeordnet. Mit vorliegender Arbeit werden vielfältige Analysemöglichkeiten von Methodeneffekten aufgezeigt sowie zwei revidierte Versionen von Achtsamkeitsskalen vorgelegt. Schlagwörter: Achtsamkeit, Multitrait-Multimethod-Analysen, Validierung, Kentucky Inventory of Mindfulness Skills, Mindful Attention and Awareness Scale.
Mikrozensus online
(2010)
Diese Arbeit untersucht, unter welchen Voraussetzungen Online-Befragungen effizient in die Datenerhebung des Mikrozensus zu implementieren sind. Zu konstatieren ist folgende Ausgangssituation: Seit nun mehr zehn Jahren gehören Online-Befragungen zu dem festen Repertoire der Umfrageforschung. Sowohl in der Markt- und Meinungsforschung, hier hat der Anteil von Online-Befragungen in Vergleich zu den etablierten Befragungsformen seit dem Jahre 2000 um rund 30 % zugenommen, als auch in der sozialwissenschaftlichen Forschung ist diese Form der Datenerhebung nicht mehr wegzudenken. Den großen Stellenwert, den Online-Befragungen mittlerweile in der Umfrageforschung erlangt haben, konnten sie bis dato in der amtlichen Statistik nicht erreichen. Zwar etablierten sich Online-Erhebungen auch hier im Rahmen des angestrebten Bürokratieabbaus, dies aber nur im Bereich der Unternehmensstatistiken. Einzig den Unternehmen stehen mit den beiden Internetportalen IDEV (Internet Datenerhebung im Verbund) und eSTATISTIK.core gegenwärtig zwei innovative Online-Meldeverfahren zur Verfügung, die im Zuge des angestrebten Bürokratieabbaus zur Entlastung der Unternehmen von ihren Aufgaben im Rahmen der amtlichen Statistik beitragen. Im Bereich der amtlichen Bevölkerungsstatistik findet diese Innovation ganz im Gegensatz zu der übrigen sozial-wissenschaftlichen Forschung wenig Anklang. Gleichwohl sind nicht nur Unternehmen, sondern auch Bürger durch die verpflichtende Teilnahme an amtlichen Statistiken in einem erheblichen Maße belastet. Zwar ist die Teilnahme bei den meisten bevölkerungsstatistischen Befragungen freiwilliger Natur, aber alleine der Befragungsumfang – ein Interview im Mikrozensus dauert beispielsweise für eine erwerbstätige Person ca. 30 Minuten – bedeutet für die betroffenen Haushalte einen beachtlichen Zeitaufwand der, wie diese Arbeit darlegt, durch Online-Befragungen spürbar zu vermindern ist. Will man die Anwendungsmöglichkeiten von Online-Befragungen für bevölkerungsstatistische Erhebungen wie den Mikrozensus sachgerecht beurteilen, ist zu berücksichtigen, dass Bevölkerungsbefragungen der amtlichen Statistik unter anderen Voraussetzungen stattfinden als nicht amtliche Befragungen. Zwar gelten für beide die gesetzlichen Datenschutzbestimmungen, die amtlichen Statistiken unterliegen aber überdies dem Legalitätsprinzip. Das Legalitätsprinzip, welches für jede durchzuführende Bundesstatistik ein eigenes Gesetz vorsieht, schafft nicht nur die rechtliche Grundlage für Bundesstatistiken, sondern reglementiert auch restriktive ihre Durchführung. Vor jeder Bundesstatistik steht somit ein Gesetz, dass den Befragtenkreis, den Berichtszeitraum, die Periodizität der Erhebung, die Erhebungsmethodik und insbesondere die Auskunftspflicht explizit anordnet. Es werden hiermit Rahmenbedingungen gesetzt, deren Erfüllung unabdingbar für den Einsatz von Online-Befragungen innerhalb der Mikrozensuserhebung sind. Außer den vorgefundenen gesetzlichen Rahmenbedingungen sind bei der Anwendung von Online-Befragungen auch die spezifischen Vorzüge und Probleme dieser Datenerhebungsmethodik zu bedenken, um diese substanziiert in einer Mikrozensuserhebung zum Einsatz bringen zu können. Als Vorteile von Online-Befragungen gelten gemeinhin die erweiterte Funktionalitäten in der Fragebogengestaltung. Diese reduzieren einerseits die oben beschriebene Belastung der Bürger bei einer Teilnahme an Befragungen, andererseits tragen sie zu einer nachhaltigen Steigerung der Datenintegrität bei. Ebenso ist mit Online-Befragungen durch den Wegfall von Interviewer- und Wegekosten eine augenfällig kosteneffizientere Erhebungsdurchführung möglich. Den beschriebenen Vorteilen stehen jedoch auch Schwächen, wie beispielsweise Stichprobenrepräsentativität oder Erreichbarkeit der Befragten gegenüber. Diese sind für eine effiziente Einbindung von Online-Befragungen in den Mikrozensus gleichwohl zu bedenken. Aufbauend auf einer ausführlichen Beschreibung der aktuellen Mikrozensuserhebung wird nach einer systematischen Darstellung der Vor- und Nachteile von Online-Befragungen ihre Umsetzung im Mikrozensus erörtert. Von großer Bedeutung für die Umsetzung Erhebung sind die bei der Durchführung entstehenden Kosten, die Stichprobengewinnung und deren Repräsentativität sowie im Falle des Mikrozensus die Einhaltung der Auskunftspflicht. Im Lauf der Arbeit wird gezeigt, dass Online-Befragungen als eigenständige Erhebungsmethodik angesichts der mangelnden Stichprobenrepräsentativität sowie des nicht flächendeckenden Internetzugangs der deutschen Bevölkerung nicht in der Lage sind, die im Mikrozensus etablierten Befragungsformen vollständig zu ersetzen. Ihr Einsatz als Ergänzung zu den beiden etablierten Erhebungsformen aber durchaus möglich und sinnvoll ist. Betrachtet man den Einsatz von Online-Befragungen im Mikrozensus unter ökonomischen Gesichtspunkten, so lassen sich im Hinblick auf die hohe Wiederverwertbarkeit von elektronischen Fragebögen in erheblichem Umfang Kosten bei der Erstellung von Erhebungsunterlagen einsparen. Auch lässt sich das Mahnverfahren, in das nicht auskunftsbereite Haushalte gelangen, sowohl zeitlich als auch personell rationeller gestalten. Für die Kontrolle der eingegangenen Erhebungsunterlagen ist angesichts der hohen Automatisierung von Online-Befragungen ein geringerer Arbeitsaufwand notwendig. Der ökonomische Aspekt bezieht sich nicht alleine auf die Durchführungskosten. Der Mikrozensus ist ein wichtiger nationaler Bestandteil der europäischen amtlichen Statistik. Wie die Arbeit nachweist verkürzt sich infolge der direkten Datenerfassung durch den Befragten und des geringeren Kontrollaufwands der erhobenen Daten die Zeit für die Datenaufbereitung. Damit ist eine schnellere Bereitstellung der Mikrozensusergebnisse für die Zwecke der nationalen und europäischen amtlichen Statistik möglich. Der Kosteneffizienz stehen naturgemäß in anderen Bereichen höhere Ausgaben gegenüber. So ist bei einer Einführung von Online-Befragungen mit Mehrausgaben in Rahmen der Hard- und Softwarebeschaffung zu rechnen. In Anbetracht der bereits vorhanden informationstechnologischen Ausstattung (Server, Laptops, IT-Fachkräfte) in den Statistischen Landesämter schlägt die Durchführung von Online-Befragungen mit einem geringen finanziellen Mehraufwand zu Buche. Auch ermöglichen Online-Befragungen, die bereits hohe Datenintegrität noch zu steigern. Neben den bereits in CAPI-Befragungen erprobten Verfahren wie Plausibilitätskontrollen oder der automatischen Filterführung, die fehlerhafte Dateneingaben vermeiden, lässt sich zur Sicherung der hohen Datenqualität das bereits seit Langem in der Dateneingabe verwandte Signierungsverfahren für die Erfassung von Beruf und Wirtschaftszweig verwenden. Übertragungsfehler, die infolge der manuellen Dateneingabe auftreten, sind damit weitgehend auszuschließen. Neben den beschriebenen ökonomischen Aspekten und dem der Datenintegrität ist es die Bürgernähe, welche eine Erweiterung des im Mikrozensus verwandten Methodenmixes um Online-Befragungen rechtfertigt. Durch das anspruchsvolle Frageprogramm, das im umfangreichen Selbstausfüllerbogen zu bearbeiten ist, sind die vom Mikrozensus betroffenen Haushalte durch ihre Teilnahme einer erheblichen zeitlichen Belastung ausgesetzt. Mit den erweiterten Funktionalitäten von Online-Fragebögen (z. B. automatische Filterführung und Signierungsverfahren) lässt sich die Bearbeitungszeit für die selbstausfüllenden Haushalte erheblich verringern. Dies wirkt sich nicht nur positiv auf die Datenqualität aus, sondern vermittelt auch ein Bild von der amtlichen Statistik als ein innovatives am Bürger orientierten Institution. Zusammenfassend kann festgehalten werden, dass Online-Befragungen dank der beschriebenen Vorteile eine sinnvolle Ergänzung zu den bereits etablierten Datenerhebungsverfahren im Mikrozensus bilden. Ihr Einsatz darüber hinaus auch in anderen bevölkerungsstatistischen Erhebungen sinnvoll sein kann.
Die minimalinvasive Herzchirurgie ist an der Universität Frankfurt seit Ende der 90er Jahre ein etabliertes Verfahren zur Therapie von Mitralklappenvitien. Dabei kommen die rechtslaterale Minithorakotomie und die partielle oberer Sternotomie mit Verwendung der Herz-Lungen-Maschine zum Einsatz. In der Klinik für Thorax-, Herz- und thorakale Gefäßchirurgie in Frankfurt wurde von Januar 1998 bis Dezember 2005 bei 331 Patienten die Mitralklappe rekonstruiert bzw. ersetzt, und zwar über die rechtsseitige Minithorakotomie in 231 Fällen, über die partielle Sternotomie bei 100 Patienten. Ziel der vorliegenden Studie war die Evaluierung perioperativer und postoperativer Komplikationen. Perioperativ starben lediglich in der Chitwood-Gruppe 3 Patienten. Das Langzeitüberleben beider Gruppen nähert sich dem der Normalbevölkerung. Hinsichtlich des Zieles dieser Operationen, die Wiederherstellung der Funktion der Mitralklappe, wurden an der Universität Frankfurt, im Vergleich mit bereits vorliegenden Studien, ähnlich gute Ergebnisse erzielt. Früh- und Spätkomplikationen traten bei beiden Operationsverfahren selten auf. Dies wird vor allem an der geringen Reoperationsrate deutlich. Bei der Nachuntersuchung zeigten sich im Vergleich zum präoperativen Zustand der Patienten hochsignifikante Verbesserungen hinsichtlich NYHA-Klassifikation, also der allgemeinen Leistungsfähigkeit. Die erfassten Patienten konnten auch von der Verbesserung der Ventrikelfunktionsparameter profitieren, worin sich die beiden Gruppen nicht unterschieden. Obwohl die postoperativen Ergebnisse gut waren, gilt doch hervorzuheben, dass es zu einigen Problemen gekommen ist: 6 Patienten der Chitwood-Gruppe, deren Mitralklappe mit Hilfe einer Fraterplastik rekonstruiert wurde, mussten reoperiert werden. Daher wurde die Technik der Fraterplastik seit März 2003 nicht mehr eingesetzt. Die dargestellten Ergebnisse aus der Literatur belegen die Effektivität der beiden minimalinvasiven Therapieformen im Hinblick auf Überleben, spätere Leistungsfähigkeit sowie peri- und postoperativer Komplikationen. Beide Methoden haben bewiesen, für ausgewählte Patienten eine sichere Alternative zur medianen Sternotomie zu sein. Durch die Komplexität des Verfahrens nach Chitwood werden heute die meisten minimalinvasiven Eingriffe über die partielle obere Sternotomie durchgeführt. Inzwischen wurde ihre Anwendbarkeit auf Notfallpatienten und Kombinationseingriffe an den Herzklappen ausgeweitet.
Im Mittelpunkt dieser Arbeit steht eine Untersuchung zum internationalen Talent-austausch, zur Mobilität und zur Ausbildung von medizinischen und natur-wissenschaftlichen Hochschulabsolventinnen und -absolventen des institutionellen BMEP-Programms (BMEP/Biomedical-Exchange-Program) während des Studiums und beim Übergang ins Berufsleben. Das transatlantische Biomedical Exchange Programm ist ein Programm zum Talentaustausch von Graduierten und Post-Graduierten mit den USA und verankert Innovations- und Wissenstransfer-Forschung von universitärer und industrieller Welt in der Life-Science-Industrie1). Das Programm wurde im Jahr 1979 von Prof. Dr. John Boylan, Prof. of Medical and Physiology an der University of New York, Buffalo und Medical School Farmington (Connecticut) und Prof. Dr. Hilmar Stolte von der Medizinischen Hochschule Hannover ins Leben gerufen. Es handelt sich um eine soziologische Aufgabenstellung mit der thematischen Zielsetzung im Bereich der Karriereforschung. Die Untersuchung hat geklärt, ob internationale Ausbildung und interdisziplinäres Wissen einen Wissensvorsprung bedingen, der sich im Hinblick auf internationale Karrieren und Führungspositionen in unserer heutigen Wissens-gesellschaft auswirkt. Um die Arbeit in den bestehenden Forschungskontext einzuordnen, ist es notwendig, sowohl soziologische als auch ökonomische Teilgebiete der Karriere-, Qualifikations- sowie Mobilitätsforschung zu berücksichtigen, was in den Kapitel 3 und Kapitel 4 dargestellt wird. Die Arbeit ist eine erstmalige empirische Untersuchung über das institutionelle, transatlantische und interdisziplinäre Biomedical-Exchange-Program (BMEP) zum Talentaustausch von medizinischen und naturwissenschaftlichen Studenten mit den USA auf der Ebene von universitärer und industrieller Welt. Um die Effektivität und Leistungsfähigkeit des institutionellen BMEP-Programms zu evaluieren, wurden je drei ehemalige Absolventen pro Jahrgang des Programms der Jahrgänge 1979-2004 mit Hilfe eines Fragebogens befragt. Die Untersuchung befasst sich schwerpunktmäßig mit den ursprünglichen Intentionen und Motiven der Teilnehmer, den Schwierigkeiten, die sich auf diesem Wege in die USA ergeben haben und den Absichten, die verwirklicht werden konnten. Sie fragt, ob erfolgreiche internationale Karrieren durch die Teilnahme am BMEP-Programm entstanden sind, sowie Unternehmertum, Selbständigkeit und internationale Science Frontier-Kontakte und ob im Laufe des Programms Publikationen entstanden sind. ....
Gepaarte assoziative Magnetstimulation (PAS) kann im primären menschlichen Motorkortex (M1) sowohl langzeitpotenzierungs- (LTP) als auch langzeitdepressionsähnliche (LTD) Erregbarkeitsveränderungen hervorrufen. Dies kann durch die Untersuchung magnetisch evozierter Potentiale (MEP) erfasst werden. Dagegen ist wenig über die Auswirkungen von PAS auf willkürliche Aktivität des motorischen Kortex bekannt. Im ersten Experiment haben wir bewegungsabhängige kortikale Potentiale (MRCP) bei zehn gesunden Probanden im EEG registriert, um die willkürliche Aktivität im Motorkortex während der Vorbereitung zweier motorischer Aufgaben zu erfassen. Die Probanden mussten dabei entweder den Daumen abduzieren (Hauptmuskel: Musculus abductor pollicis brevis, APB) oder das Handgelenk strecken (Hauptmuskel: Musculus extensor carpi radialis, ECR). Die Amplituden der motorisch evozierten Potentiale im APB wurden dabei durch PASLTP gesteigert, durch PASLTD vermindert und blieben bei PAScontrol unverändert. Im Gegensatz dazu wurden sie im ECR durch keine PAS-Bedingungen verändert. PASLTP verminderte die Negativität der MRCP während des späten Bereitschaftspotentials (-500 bis 0 ms vor Bewegungsbeginn) nur in der APB-Aufgabe. Diese Veränderungen zeigten sich hauptsächlich über zentralen Elektroden kontralateral zur bewegten Hand. Dieser Effekt korrelierte negativ mit dem durch PASLTP induzierten MEP-Anstieg im APB. PASLTD und PAScontrol hatten dagegen keinen Einfluss auf die MRCP Amplituden. Unsere Ergebnisse deuten auf eine spezifische Wechselwirkung von PAS mit willkürlicher Aktivität im Motorkortex während der Vorbereitung motorischer Aufgaben hin. Dies könnte durch ein Zusammenspiel aus erhöhter Exzitabilität von M1 und einer unterbrochenen effektiven Konnektivität zwischen prämotorischen Arealen und M1 erklärt werden. Die Modulation des dorsolateralen prämotorischen Kortex (PMd) durch repetitive transkranielle Magnetstimulation (rTMS) verändert die kortikospinale Erregbarkeit in M1. Die Auswirkungen von PMd-rTMS auf vorbereitende Prozesse für willkürliche Bewegungsabläufe sind jedoch unklar. Contingent negative variation (CNV) repräsentiert im EEG kortikale Vorbereitungsprozesse äußerlich getriggerter Bewegungen während das Bereitschaftspotential (BP) Vorbereitungsprozesse intern getriggerter Bewegungen repräsentiert. Im zweiten Experiment wurden CNV und BP jeweils vor und nach PMd-rTMS untersucht. Das Experiment bestand aus drei CNV-Versuchsblöcken mit insgesamt 243 Durchgängen. Dabei mussten die Probanden auf visuelle Anweisung hin eine zwei-Item Finger-Bewegungssequenz durchführen. RTMS wurde sowohl mit 1 Hz als auch mit 5 Hz bei einer Intensität von 110% der aktiven motorischen Schwelle (AMT) unter individueller MR-Navigation appliziert. Die Erfassung des BP erfolgte während der Durchführung derselben motorischen Aufgaben, allerdings bekamen die Probanden keine Anweisungen. Die Durchschnittsamplituden der frühen und späten Komponente von CNV (CNV1:1500-500 ms vor dem Startsignal (S2); CNV: 500-0 ms vor S2) und der frühen und späten Komponente des BP (BP1: 1500-500 ms vor EMG Beginn; BP2: 500-0 ms vor EMG-Beginn) wurden quantitativ für 25 zentrale Elektrodenpositionen verglichen. CNV2 zeigte eine signifikante Bahnung über dem frontal-zentralen Bereich nach 1 Hz PMd-rTMS, blieb aber unverändert nach 5 Hz PMd-rTMS. CNV1, BP1 und BP2 blieben durch 1 Hz und 5 Hz PMd-rTMS unbeeinflusst. Diese Ergebnisse lassen vermuten, dass der dominante PMd eine wichtigere Rolle in der Vorbereitung extern getriggerter Bewegungen spielt, als dies bei intern getriggerten Bewegungen der Fall zu sein scheint. Die CNV2-Antwort könnte eine intensive Interaktion innerhalb des menschlichen motorischen Kontrollnetzwerks anzeigen, die möglicherweise auf kompensationsähnlichen Mechanismen beruht.
Die vorliegende Arbeit beinhaltet die Untersuchung des Schwingungsenergietransfers im N-Methylazetamid (NMA) Molekül und von Wärmetransportprozessen im lichtschaltbaren 310-Aib-Oktapeptid. Dazu unternahmen wir Nichtgleichgewichts-MD-Simulationen und analysierten den zeitlichen Energiefluss in den jeweiligen Biomolekülen. Die Simulationsergebnisse wurden dann im Rahmen der in Kapitel 2 vorgestellten Theorien zum Energietransfer diskutiert. ...
Die X-chromosomal gebundene chronische Granulomatose (X-CGD) ist eine seltene Erbkrankheit, bei der die NADPH-Oxidase der Phagozyten nicht funktionell ist. Der Grund hierfür liegt meist in Mutationen in der GP91phox Untereinheit der Phagozyten-Oxidase. Hierdurch treten lebensbedrohliche Bakterien- und Pilzinfektionen bei Patienten auf, was neben einer geringen Lebensqualität zu einer erheblich verkürzten Lebenserwartung führt. Eine Stammzelltransplantation eines gesunden Spenders ist bislang der einzige heilende Therapieansatz. Für X-CGD-Patienten, die keinen passen-den Spender zur Verfügung haben, stellt die genetische Modifikation autologer hämato-poetischer Stammzellen eine alternative Form der Therapie dar. Im Jahr 2004 wurden daher in einer präklinischen Phase I/II Studie in Frankfurt zwei X-CGD-Patienten gentherapeutisch behandelt. Hierbei wurden CD34+ Stammzellen ex vivo mit einem γ-retroviralen Vektor transduziert, der eine LTR-getriebene Expressionskassette für GP91phox trägt. Nach einer nicht-myeloablativen Konditionierung wurden die genetisch modifizierten Zellen der Patienten retransplantiert. Beide behandelten Patienten zeigten schon kurz nach Therapiebeginn eine deutliche Verminderung der Infektionsanfälligkeit und somit eine stark verbesserte Lebensqualität. Auf zellulärer Ebene konnte ein gutes Engraftment der modifizierten hämatopoetischen Stammzellen im Knochenmark beobachtet werden. In funktionellen Tests konnte die Bildung superoxidproduzierender Phagozyten für die Immunabwehr gezeigt werden. Das molekulare Monitoring beider Patienten hat jedoch über die Zeit eine Verringerung der Enzymaktivität in den Phagozyten (Superoxidproduktion) gezeigt, obwohl der Anteil genetisch modifizierter Zellen nicht geringer wurde. Im Rahmen der vorliegenden Arbeit konnte durch quantitative RT-PCR-Analysen proviraler mRNA-Transkripte, eine Korrelation zwischen dem Verlust der Enzymaktivität und reduzierter Transgen-expression gezeigt werden. Durch DNA-Analysen peripherer Blutproben beider Patienten konnte eine verstärkte Methylierung an der Promotor-CpG-Insel, welche die Transgen-expression reguliert, als Ursache identifiziert werden. Weiterführende klonale Untersuchungen genmodifizierter Kolonien aus dem Knochenmark der Patienten offenbarten einen direkten Zusammenhang zwischen der Abwesenheit von Transkription bzw. Superoxidbildung und der Methylierung dieser CpG-Insel im proviralen Promotor-bereich. Somit konnte zum ersten Mal ein epigenetisches Silencing bei Patienten nach einer Behandlung mit Gentherapie nachgewiesen werden. In weiteren Versuchen konnte die vollständig ausgebildete, spezifische Methylierung des SFFV-Promotors in transduzierten Knochenmarkzellen eines Patienten durch in vitro Behandlung mit einem Methyltransferase-Inhibitor (Aza-D) in Kombination mit einem Histondeacetylase-Inhibitor (TSA) bis zu 30% reduziert werden. Dieser Teilerfolg zeigt, dass eine klinisch relevante Reaktivierung der Transgenexpression, durch Umkehrung des Silencings am SFFV-Promotor, prinzipiell möglich ist. Das Phänomen der Abschaltung der Genexpression des γ-retroviralen Vektors in der Frankfurter Gentherapiestudie, hat ein Testsytem zur Evaluierung zukünftiger Gentherapie-Vektoren erfordert. Durch Monitoring proviraler Parameter (Kopien, Transgenexpression, Proteinexpression und Promotor-CpG-Methylierung), in der murinen embryonalen Stammzelllinie P19 konnte in dieser Arbeit ein prädiktiver Silencing-Assay erfolgreich etabliert werden. Mit Hilfe dieses Systems wurden vielversprechende Silencing-resistente Vektoren mit dem UCOE (Ubiquitous Chromatin Opening Element) identifiziert. Hierdurch wurden wichtige Grundlagen geschaffen, um zukünftige virale Vektorsysteme in Bezug auf ihre Langzeitexpression testen zu können. Zusätzlich zu der Inaktivierung der transduzierten Expressionskassette konnte in beiden Patienten ein klonales Auswachsen von Subklonen beobachtet werden, das letztendlich zu einem myelodisplastischen Syndrom bei beiden Patienten führte. Der virale Enhancer war im Gegensatz zum viralen Promotor niemals methyliert, wodurch seine transaktivierenden Eigenschaften unbeeinflusst blieben. Diese enhancervermittelte Aktivierung proliferationsfördernder Gene (Mds1-Evi1-Genlokus) konnte durch RT-PCR-Analysen zunächst in Mischpopulationen aus peripherem Blut der Patienten nach-gewiesen werden. Weiterführende klonale Analysen in Knochenmarkzellen zeigten den direkten Zusammenhang zwischen der transkriptionellen Aktivierung des Mds1-Evi1-Genlokus und den proviralen Insertionen. Somit konnte die Ursache für die therapie-assoziierte, klonale Dominanz in beiden X-CGD-Patienten aufgeklärt werden. In der Frankfurter Gentherapiestudie wurde erstmals ein klinischer Erfolg für X-CGD-Patienten erzielt. Durch intensives molekulares Monitoring konnte im Rahmen dieser Arbeit aufgedeckt werden, dass der eingesetzte γ-retrovirale Vektor über das Phänomen der Insertionsmutagenese hinaus, auch in Bezug auf die epigenetische Abschaltung der Transkription (Silencing), für zukünftige Studien modifiziert werden muss. Sicherheits-verbesserte Vektoren mit einer Resistenz gegenüber Silencing in murinen embryonalen Stammzellen konnten in dieser Arbeit charakterisiert werden. Mit diesen Genfähren könnte der angestrebte Langzeittherapieerfolg in Zukunft möglich werden.
Die vorliegende Dissertationsschrift befasst sich mit der molekulargenetischen Analyse zweier Basalganglienerkrankungen. Zum einen wurden Patienten mit M. Parkinson genetisch untersucht, zum anderen Patienten mit autosomal dominanter zervikaler Torsionsdystonie. Die Aufgabe bestand in der passenden Wahl der Methode zur jeweiligen humangenetischen Fragestellung. Der erste Teil handelte von der Suche der krankheitsverursachenden Mutation für die autosomal dominante zervikale Torsionsdystonie mit Spätmanifestation auf Chromosom 18p (Kandidatenlokus DYT7). Die erkrankte Familie deutscher Herkunft zeigt dystone Symptome mit Betonung auf kraniozervikale und brachiale Körperabschnitte und ist somit die weltweit einzige bekannte Familie mit Vererbung dieser ansonsten sporadisch auftretenden Erkrankung. Die PCR-Sequenzierung der Kandidatengene ZFP161, LOC390828, NDUFV2 und PTPRM auf dem DYT7 Lokus erbrachte bei den sieben erkrankten Familienmitgliedern im Vergleich zu nicht verwandten Kontrollen (Ehepartner und 96 Kontrollen der Blutbank) keinen Aminosäureaustausch, der ausschließlich bei den erkrankten Probanden zu finden war. Technisch konzentrierte sich diese Untersuchung auf die Amplifizierung und anschließende Sequenzierung jedes einzelnen Exons in den zu untersuchenden Proben, und die Bestätigung einer putativen Mutation mittels Verdau der PCR-Produkte durch Restriktionsendonukleasen. Die Auswahl der Kandidatengene erfolgte aufgrund der Annahme pathobiochemischer Mechanismen, die durch andere Formen der vererbten Torsionsdystonie oder zellbiologische Experimente als krankheitsverursachend gelten. Auch wenn keine Mutation gefunden wurde, so konnten bereits bekannte und neue single nucleotide polymorphisms (SNP) etabliert werden. Die zweite Thematik befasste sich mit der Frage, ob das bereits bekannte Parkinson-Gen UCH-L1 auf dem PARK5 Lokus krankheitsverursachend für den autosomal dominanten M. Parkinson in einer spanischen Familie ist. Diese parametrische Kopplungsanalyse wurde mithilfe der heißen Polyacrylamid-Gelelektrophorese (PAGE) durchgeführt. Dabei konnte in allen Patienten und den Verwandten ersten Grades über Analyse der Mikrosatelliten nördlich und südlich der Kandidatenregion (UCH-L1) in einem Bereich sehr niedriger Rekombinationswahrscheinlichkeit eine Haplotypisierung erfolgen. Die Haplotypisierung zeigte nicht die erforderliche Identifizierung eines Krankheitsallels bei allen betroffenen Probanden. Somit ist hier neben der einzig bekannten deutschen PARK5 Familie keine weitere Familie mit UCH-L1 Mutation bestätigt worden. Dementsprechend ist die Ätiologie dieser Erkrankung in dieser Familie noch unklar, was aber der Bedeutung des Ubiquitin-Proteasom Systems in der Parkinson-Entität keinen Abbruch getan hat. Da alle anderen autosomal dominanten Parkinson-Loci ausgeschlossen sind, muss sich die Ursache für den M. Parkinson in dieser Familie in einem heute noch unbekannten Gen befinden. Weitere Untersuchungen im Rahmen eines Genomscans sind aufgrund der geringen Fallzahl nicht möglich. Die letzte Aufgabe dieser Arbeit bestand in der Durchführung einer Assoziationsstudie mit den putativen PINK1 (PARK6) Interaktoren NME4 und MTIF3 für den mehrheitlich sporadisch auftretenden M. Parkinson. Dabei wurden in zwei unabhängigen Studiengruppen mit insgesamt 453 sporadischen Parkinsonpatienten und 370 Kontrollen jeweils zwei SNPs auf gekoppelte Vererbung mit der Erkrankung untersucht. Der Unterschied zwischen den Testgruppen bestand im Studiendesign, da zum einen mit den Patienten nicht verwandte Kontrollen und zum anderen verwandte Kontrollen verwendet wurden. Die mit beiden Studientypen normalerweise auftretenden Probleme durch Stratifikation bzw. erniedrigte statistische Power konnten durch Kombination der Studien ausgeglichen werden. Das Methodenspektrum umfasste PCR und Restriktionsverdau, was zum Auffinden eines Kopplungsungleichgewichts für das Gen MTIF3 führte. Ein heterozygoter Basenaustausch für den Polymorphismus rs7669 erhöht signifikant das Relative Risiko an M. Parkinson zu erkranken, wohingegen der homozygote Basenaustausch das Krankheitsrisiko des Trägers signifikant erniedrigt. Bezüglich des Relativen Risikos wurde der Effekt der molekularen Heterosis nachgewiesen. Bei diesem mitochondrial lokalisierten Gen handelt es sich um einen Initiator der mitochondrialen Translation. Demzufolge besteht hier Einfluss auf die Homöostase und somit Funktionalität der Atmungskettenkomplexe, die als bedeutend für die Pathogenese des M. Parkinson angesehen werden. Die Verbindung zum mitochondrial lokalisierten PINK1 besteht aufgrund seiner Kinase-Aktivität in der An- und Abschaltung des mitochondrialen Translations - Initiationsfaktors. Aber auch die Wichtigkeit von NME4 konnte in dieser Studie trotz fehlender Assoziation nicht ausgeschlossen werden, da vorangehende experimentelle Ergebnisse dieses Protein bereits in den PINK1 Signalweg zuordnen konnten. MTIF3 könnte wohlmöglich ein wichtiger genetische Risikofaktor für den idiopathischen M. Parkinson sein. Es bleibt abzuwarten, ob zukünftige genetische und zellbiologische Experimente die Wichtigkeit, die in diesem Protein zu liegen scheint, bestätigen können.
Hintergrund: Untersuchungen bezüglich Tablettenlast, Sturzereignisse und unangemmessener Dosierung bei Niereninsuffizienz wurden bei Patienten in Pflege-und Altenheimen durchgeführt. Daten von Heimbewohnern im zunehmenden ambulanten Pflegebereich, speziell aus Deutschland wurden hier erörtert. Material und Methoden: Wir evaluierten Patienten, die täglich durch einen ambulanten Pflegedienst versorgt wurden (Kohorte 1, N=102, Alter: Median 80 Jahre) oder Pflege ausschließlich von Angehörigen erhielten (Kohorte 2, N=102, Alter: Median 76 Jahre) an V1 als Ausgangspunkt, nach 6 Monaten (V2) und 12 Monaten (V3). Ergebnisse: An Visite 1 wiesen die Patienten aus Kohorte 1 im Median 5 (range 3-15), an Visite 3 im Median 6 (range 3-17) Verordnungen auf. Es konnten keine Unterschiede bezüglich der Anzahl und des Verordnungsmusters zwischen beiden Kohorten beobachtet werden. An Visite 1 war bei 30/102 Patienten aus Kohorte 1 ein Kreatininwert vorhanden, welcher innerhalb der letzten 6 Monate erhoben wurde, 13/30 Patienten wiesen eine eGFR < 50 ml/min. auf. 6/34 Medikamenten, welche der Anpassung an die Nierenfunktion bedürfen, wurden nicht angemessen dosiert. Seltene Kontrollen der Nierenfunktion und nicht angemessene Dosierung wurden auch an anderen Visiten und ferner bei Kohorte 2 beobachtet. Innerhalb eines Jahres 29/75 mobilen Patienten aus Kohorte 1 hatten ein Sturzereignis, 18/29 dieser Patienten wiesen eine regelmäßige Verordnung von Benzodiazepinen auf, während ein Benzodiazepin bei 6/46 Patienten regelmäßig verordnet wurde, welche kein Sturzereignis aufwiesen (Chi-test p= 0.004). In Kohorte 2 war die Anzahl der gestürzten Patienten geringer (19/84 mobilen Patienten, p= 0.028). 11/19 Patienten hatten eine Benzodiazepinverordnung, im Gegensatz zu 5/65 Patienten, die nicht gestürzt sind (Chi-test p=0.001). Schlussfolgerung: Es muss geklärt werden, ob ein Pflegedienst zur Arzneimitteltherapiesicherheit der Patienten beitragen kann, z. B. durch Überprüfung der Medikamentenpläne und Organisation zusätzlicher Laborwertkontrollen.
Die Wahrnehmung unserer Umwelt erfolgt über verschiedene Sinnesmodalitäten, deren Informationen bevorzugt in bestimmten Hirnarealen verarbeitet werden und sich schließlich zu einem kohärenten Bild ergänzen. Wie diese Prozesse ablaufen und durch welche Vorgänge die Wahrnehmungen einen einheitlichen Sinneseindruck formen, sind fundamentale Fragen der kognitiven Neurowissenschaft. Ziel der vorliegenden Studie war es, diese sensorischen Verarbeitungsprozesse genauer zu untersuchen und bisherige Ergebnisse zu bestätigen sowie neue Erkenntnisse bezüglich audio-haptischer und audio-visuo-haptischer Integration zu gewinnen. Weiterhin sollten angemessene Kriterien für die Auswertung der Daten untersucht werden mit dem Schwerpunkt sinnvoller Kontrollbedingungen. Sechzehn Probanden wurden hierzu mittels fMRT während uni-, bi- und trimodaler Stimulation untersucht. Die Stimulation bestand aus der Darbietung von schwarz-weißen Tierbildern, Tierstimmen und Tierfiguren, die einzeln oder in unterschiedlichen Kombinationen präsentiert wurden. Weiterhin gab es eine motorische Kontrollbedingung ohne sensorische Stimulation. Die unisensorischen Ergebnisse fanden sich in den modalitätsspezifischen Kortexarealen und bestätigten zum großen Teil bisherige Erkenntnisse und die Existenz der Was- und Wo-Pfade. Bimodale audio-visuelle Stimulation führte zu Aktivierungen im Temporallappen um den STS/STG, welcher bei audio-visueller Integration von großer Bedeutung ist. Aktivierungen im Gyrus cinguli, Gyrus fusiformis und Precuneus spielen anscheinend eine Rolle bei der Präsentation von familiären Stimuli und kongruenten Darbietungskombinationen. Auf Ebene früher visueller und auditorischer Leitungsbahnen zeigte sich ebenfalls audio-visuelle Interaktion. Visuo-haptische Integration scheint sich nach den vorliegenden Daten im LOtv, IPS und ventralen Zerebellum abzuspielen. LOtv und IPS sind vermutlich insbesondere für die Verarbeitung von geometrischen Formen von Bedeutung. Im ventralen Zerebellum kommt es durch kortiko-zerebelläre Verschaltungen zur Beteiligung bei visuo-haptischer Informationsverarbeitung. Die Aktivationsmuster bei audio-haptischer Stimulation deuteten auf Verarbeitung bilateral im temporo-parietalen Bereich hin in Temporallappen, Parietallappen und der Insula. Die Aktivierungen kommen vermutlich durch Feedforward-Projektionen und Konnektivität zwischen auditorischem und somatosensorischem Kortex zustande, in der Insula durch Konvergenz der auditorischen und somatosensorischen Was-Informationen. Trimodale Stimulation zeigte bei Anwendung des Max-Kriteriums, bei welchem die audio-visuo-haptische Aktivität stärker als die einzelnen unisensorischen Signalantworten ausfallen sollte, ein Areal im linken temporo-parietalen Bereich. Bei weniger strenger Auswertung wurde eine weitere Region im rechten Zerebellum nachgewiesen. Beide konnten der Erweiterung des Max-Kriteriums zum Vergleich zwischen tri- und bisensorischer Aktivität nicht standhalten. Beim Affen existiert eine superior temporale polysensorische Region, welche auf visuelle, auditorische und haptische Reize reagiert. Ob ein integratives trisensorisches Areal beim Menschen existiert, sollte in weiteren Studien untersucht werden. Vielleicht liegt eine ausgeprägte interindividuelle Variabilität der Lokalisation des Konvergenzpunktes vor. Eine andere Möglichkeit ist, dass die Verarbeitung im Gehirn vermehrt bisensorisch gegliedert verläuft. Um dies in zukünftigen Studien besser zu untersuchen, könnte es von Vorteil sein simple sensorische Stimuli zu verwenden. Eine Reizdegradierung hätte verminderte Signalamplituden zur Folge, was multisensorische Interaktionen mit nachfolgendem Signalanstieg besser beurteilen ließe. Darüber hinaus könnte in den Studien fMRT-Adaptation angewendet werden. Über die repetitive Stimulusdarbietung kommt es ebenfalls zu verminderter BOLD-Signalantwort. Die vorliegende Studie hat weiterhin die Notwendigkeit der Einführung von Kontrollbedingungen demonstriert. Neben unisensorischen sollten bisensorische Kontrollbedingungen zur Beurteilung trisensorischer Aktivität herangezogen werden. Eine Kontrollbedingung zur Beurteilung des Ruhezustandes ohne sensorischen Reiz sollte ebenfalls vorhanden sein. Prinzipiell scheint das Max-Kriterium zur Detektion multisensorischer Integration angemessen zu sein.
Dynamische Proteininteraktionen sind die Grundlage biologischer Prozesse, ihr korrekter Ablauf ist essentiell für die intakte Physiologie aller Organismen. Die Aufklärung der Struktur und Funktion von Proteinen inklusive ihrer komplexen Interaktionen, ist entscheidend für das Verständnis biologischer Prozesse. Methoden zur Untersuchung von Protein-Interaktionen sind in der Regel auf die Modifikation von Proteinen angewiesen. Zum Einen ist die selektive Markierung von Proteinen mit spektroskopischen Sonden – insbesondere mit Fluorophoren – ein wichtiger Ansatz zur in vivo und in vitro Interaktionsanalyse. Zum Anderen gewinnen festphasenbasierte Analysemethoden zunehmend an Bedeutung. Multivalente Chelatoren (MCH) bieten vielseitige Möglichkeiten, rekombinante Proteine reversibel an spektroskopische Sonden oder Oberflächen anzubinden und haben dadurch ein enormes Potential für Anwendungen zur funktionalen Charakterisierung von Proteinen. Ziel dieser Arbeit war es, die Energetik und Dynamik der Interaktion von MCH mit Oligohistidinen zu charakterisieren, um diese insbesondere zur Organisation von Proteinen in Mikro- und Nanostrukturen einzusetzen. Die Interaktion der MCH mit Histidin-Tags unterschiedlicher Länge und Sequenz wurde in Lösung und an Oberflächen charakterisiert. Es zeigte sich, dass die zunehmende Länge und die Redundanz auf Seiten des Histidin-Tags in einer erhöhten Affinität resultierten. Das Einführen einzelner Spacer-Aminosäuren resultierte hingegen in einer drastischen Reduktion der Komplexstabilität. Ein Alanin-Scanning zeigte, dass vor allem die zentralen Histidine besonders wichtig für eine stabile Bindung sind. Dieser Effekt lässt sich dadurch erklären, dass es sich bei der MCH-Oligohistidin-Interaktion um einen äußerst dynamischen Prozess handelt, bei dem die Metallkoordinationsstellen mit ständig wechselnden Histidinen interagieren. Diese Permutation erhöht die Entropie des Komplexes, und ist somit Grund für die erhöhte Affinität mit steigender Redundanz des Histidin-Tags. Anhand von Chelator-Dichte-Arrays konnte gezeigt werden, dass die Stabilität der Bindung von Histidin-getagten Proteinen nicht nur mit der Multivalenz der Chelatoren, sondern auch mit der MCH-Dichte ansteigt. In Kompetitionsexperimenten mit Hexa- und Dekahistidinen auf den MCH-Dichte-Arrays wurden veränderte Stabilitäten beobachtet. Die Stabilität von H6 ver5. veringert sich in Anwesenheit von H10, wobei sich die scheinbare Affinität von H10 in Anwesenheit von H6 erhöht. Dies wird auf die gleichzeitige Interaktion mit verschiedenen MCH-Molekülen auf der Oberfläche, die Oberflächenmultivalenz, zurückgeführt. Um diesen Effekt anhand von MCHMolekülen mit definiertem Abstand zu untersuchen, wurde ein Tris-NTABiotin-Konjugat (BTTris-NTA) hergestellt und auf Streptavidin-Oberflächen bzw. fluoreszenzmarkiertem Streptavidin eingesetzt. Echtzeit TIRFS-RIf-Kompetitionsexperimente zeigten eine veränderte Bindungskinetik für H6 in Anwesenheit von H10, welche darauf zurückzuführen ist, dass H6 aktiv durch H10 verdrängt wird. Dieser Effekt ist offenbar auf die dynamische Interaktion des Oligohistidins mit multiplen Chelatoren auf der Oberfläche zurückzuführen, welche den aktiven Austausch von H6 gegen H10 ermöglicht. Sowohl auf Oberflächen als auch in Lösung wurden für die Interaktion von Streptavidin-gebundenem BTTris-NTA mit Oligohistidinen um Faktor 3-5 erhöhte Affinitäten, im Vergleich zu freiem Tris-NTA, festgestellt. Interaktionsanalysen in Lösung zeigten maximale Komplex-Stöchiometrien von 1:2 für die Interaktion von Streptavidin-BTTris-NTA mit Oligohistidinen. Diese Stöchiometrien sowie die erhöhte Affinität lassen sich durch die gleichzeitige Interaktion von zwei benachbarten an Streptavidin gebundenen BTTris-NTA-Molekülen mit einem Oligohistidin erklären. Die räumliche Nähe der Tris-NTA-Moleküle erhöht die Redundanz auf Seiten des Chelators, was sich wiederum positiv auf die Entropie auswirkt und damit zu einer erhöhten Affinität führt. Diese Ergebnisse bestätigen den postulierten Effekt der Oberflächenmultivalenz. Es wurde gezeigt, dass BTTris-NTA die reversible Biotinylierung Histidingetagter Proteine ermöglicht, und damit eine Brücke zwischen den zwei am meisten eingesetzten Werkzeugen der Biochemie, dem Histidin-Tag und dem Biotin-(Strept)Avidin-System, schlägt. BTTris-NTA findet in verschiedenen Bereichen Anwendung: zur Umwandlung kommerzieller (Strept)Avidin-Oberflächen in Tris-NTA-Oberflächen, in Phage-Display-Screenings und Western Blot Analysen sowie zur Markierung von Rezeptoren auf Zelloberflächen. Die Biotinylierung über BTTris-NTA ermöglicht es zudem, auch Proteine geringer Konzentrationen (<10 nM) effizient auf Streptavidinoberflächen zu immobilisieren. Diese Selbstassemblierung Histidin-getagter Proteine wurde zur Organisation von Proteinen auf Oberflächen in Mikro- bis Nanometer-Dimensionen genutzt.
Hintergrund: Die Behandlung kindlicher Linsentrübungen stellt nach wie vor eine Herausforderung für die behandelnden Augenärzte dar. Im Bezug auf die Nachstarprävention ist man sich einig, dass das Belassen der intakten Linsenhinterkapsel bei Patienten unterhalb des sechsten Lebensjahres mit einem sehr hohen Nachstarrisiko behaftet ist. Aus diesem Grund haben sich einige Therapieformen mit primärer hinterer Linsenkapseleröffnung etabliert. Die beiden Nachstarpräventionstechniken bei Kindern, vordere Vitrektomie und Knopflochimplantation der Kunstlinse ohne Vitrektomie, wurden in einigen internationalen Studien bereits untersucht. Aus Deutschland stammende Untersuchungsergebnisse aus der kindlichen Kataraktchirurgie, mit einem Beobachtungszeitraum über mehrere Jahre, liegen in der Literatur noch nicht vor.
Nachweis von fetaler DNA (Rhesus-Gene) im maternalen Plasma mittels verschiedener Nachweismethoden
(2010)
Die Entdeckung zellfreier fetaler DNA im maternalen Plasma führte in der noninvasiven Pränataldiagnostik zu neuen Methoden. Dazu gehört die PCR-Testung von cffDNA, die eine verlässliche non-invasive diagnostische Methode für ein antenatales Screening von Rh-negativen Schwangeren bietet. Die Ergebnisse dieser Studie zeigen, dass anhand einer automatisierten Extraktion fetaler DNA - in Verbindung mit einer PCR - eine zuverlässige Vorhersage des fetalen Rhesus-Faktors bzw. Geschlechts möglich ist. Dies wurde durch die Untersuchung von 25 Rh-negativen Schwangeren verifiziert. Mit der FACS™-Methode, die als Alternative bei der Bestimmung des Rh-Faktors untersucht wurde, konnten - aufgrund der unspezifischen Bindung des FITC-Antikörpers - keine hinreichenden Ergebnisse erzielt werden. Anhand des verwendeten Extraktionsautomaten (chemagic® MSM I) konnte mit hoher Effizienz fetale DNA isoliert werden. Die untersuchten manuellen Extraktionsverfahren hingegen erwiesen sich für einen antenatalen Massentest bzw. die Implementierung in die klinische Routine als eher ungeeignet, da diese zum einen mit einem erhöhten Zeitaufwand verbunden waren, und zum anderen die isolierte Menge an cffDNA für eine PCR-Testung nicht ausreichte. Die Anzahl der maternalen Plasmaproben, die in dieser Arbeit untersucht wurden, reicht nicht aus um zu belegen, dass die untersuchten Methoden die gleiche Sicherheit bieten, wie die generelle Immunprophylaxe. Daher sind weitere groß angelegte Feldstudien notwendig.
In der vorliegenden Arbeit wird die Einbindung der Navigation in die operative Versorgung der Femurfrakur beschrieben und mit der konventionellen Methode verglichen. Die Marknagelung ist eine von Prof. Dr. G. B. G. Küntscher in den 40er Jahren des 20ten Jahrhunderts entwickelte Behandlung zur Bruchversorgung und Durchführung von Arthrodesen. Die Navigation ist eine Variante der computer-assistierten Chirurgie. Diese Technologien haben in den 90er Jahren des 20ten Jahrhunderts Einzug in die Operationssäle gehalten. Die Navigationssysteme erfahren eine fortwährende Entwicklung und Ausweitung des Einsatzgebietes. Sie konnten sich bis jetzt jedoch nicht, trotz der Möglichkeiten, gegenüber den bisherigen konventionellen Entwicklungen im Bereich der intramedullären Marknagelversorgung durchsetzen. Den Vorzügen der Navigation, der Reduktion der Strahlenbelastung und Erhöhung der Präzision, werden hohe Anschaffungskosten, eine lange Einarbeitungszeit, längere Vorbereitungs- und Operationszeiten und der personelle Mehraufwand gegenüber gestellt. Ein ausführlicher Vergleich der Navigation mit dem konventionellen Verfahren existiert in der Fachliteratur bis jetzt nur auf einzelne Arbeitsschritte bezogen, wie z.B. dem Vorgang der distalen Verriegelung. In unseren Untersuchungen wurden 22 Patienten mit der Navigation versorgt. Die konventionelle Methode wurde bei 12 Patienten verwendet. Alle entscheidenden Schritte der Femurmarknagelversorgung, die Nageleintrittsbestimmung, die Frakturreposition und die distale Verriegelung wurden in der Dauer und Strahlenbelastung erfasst, ebenso die Gesamtoperationszeit und Gesamtstrahlenbelastung einander gegenübergestellt und mit den vorhandenen Daten in der Fachliteratur verglichen. Die Verwendung der Navigation hat den Arbeitsschritt des Nageleintritts verlängert (23,3 min vs 14,8 min). Gegenüber der konventionellen Methode konnte eine Reduktion der Röntgenzeit um 22 % (0,39 min vs 0,5 min) bei diesem Vorgang beobachtet werden. Die navigierte Frakturreposition dauerte im Durchschnitt 25,1 min vs 16,8 min bei der konventionellen Methode. Die Strahlenbelastung konnte um 70 % auf 0,39 min vs 1,28 min gesenkt werden. Die Rate der geschlossenen Frakturrepositionen lag bei 86 % gegenüber 67 % bei dem konventionellen Vorgehen. Die distale Verriegelung mit zwei Bolzen konnte mit der Navigation in 28,9 min vs 13,9 min bei der konventionellen Methode durchgeführt werden. Die Röntgenzeit wurde mit Hilfe der Navigation um 50 % reduziert (0,39 min vs 0,78 min). Die Präzision bei der distalen Verriegelung konnte mit dem Verfahren der Navigation gegenüber der konventionellen Methode und dem strahlendurchlässigen Winkelgetriebe nur geringfügig gesteigert werden (93 % bei 44 Bolzen vs 91 % bei 23 Bolzen). Die Gesamtoperationszeit der navigierten Fälle war durchschnittlich 43,2 min länger als die konventionell behandelten Fälle (150,1 min vs 106,9 min). Die Gesamtstrahlenzeit konnte mit der Navigation gegenüber der konventionellen Methode um 37,5 % gesenkt werden (2,5 min vs 4 min). Die Vorteile der Navigation zeigten sich vorallem bei der Frakturreposition. Hier konnte die Strahlenbelastung deutlich gesenkt werden (70 %, 0,39 min vs 1,28 min). Die Rate der erfolgreichen geschlossenen Manöver wurde gegenüber der konventionellen Methode gesteigert (86 % vs 67 %).
Bei der distalen Verriegelung haben wir eine Reduktion der Dauer einer Bohrung mit Navigation um 14 % gegenüber der konventionellen Methode mit dem strahlendurchlässigen Winkelgetriebe festgestellt (3,6 min vs 4,2 min, gemessen Haut-inzision und Bohrung bis Gegencorticalis). Die Gesamtstrahlenzeit für den Vorgang der distalen Verriegelung mit zwei Bolzen und sich anschließender Lagekontrolle zeigte sich mit der Navigation um 50 % redziert (0,39 min vs 0,78 min). Ein zeitlicher Mehraufwand wurde durch die Vorbereitung der Navigation bei allen Arbeitsschritten festgestellt.
Teerfleckenpilze (Ascomycota, Phyllachorales) kommen weltweit vor, haben aber einen deutlichen Verbreitungsschwerpunkt in den Tropen. In dieser Studie wird die Diversität der Phyllachorales in Panama untersucht und taxonomische Grundlagenforschung durch molekulare Untersuchungen und ökologische Beobachtungen ergänzt. Arten der Phyllachorales bilden schwarz glänzende Flecken oder Krusten auf Blättern und Stängeln von Pflanzen. Die Fruchtkörper dieser Mikropilze sind meistens in das Wirtsgewebe eingesenkt, können aber auch oberflächlich angelegt sein. Die Größe der teerfleckenähnlichen Infektionen variiert zwischen 0,2 mm bis zu mehreren Zentimetern. Teerfleckenpilze mit eingesenkten Fruchtkörpern entwickeln in den meisten Fällen schildförmige, epidermale Deckstrukturen oberund/oder unterhalb der Perithecien. Die unitunicaten Asci können einen kleinen apikalen Ring besitzen, der sich in Jodlösung nicht blau färbt. Die hyaline Ascosporen sind meistens glatt und können von einer schleimigen Hülle umgeben sein. Die assoziierten Andromorphstadien sind durch fadenförmige Spermatien gekennzeichnet. Nur wenige morphologische Merkmale werden als verlässlich betrachtet und stehen für die Bestimmung von Arten zur Verfügung. Derzeit sind 1.226 Arten von Phyllachorales weltweit beschrieben. Puerto Rico gilt als eines der am besten untersuchten Länder in Bezug auf Teerfleckenpilze. Ungefähr 100 Arten sind derzeit von Puerto Rico bekannt, weitere Erstnachweise werden erwartet. Im Gegensatz dazu wurden in Panama bisher nur wenige mykologische Untersuchungen durchgeführt. Zwischen 1927 und 1991 wurden nur 39 Teerfleckenpilze nachgewiesen, obwohl die Landfläche Panamas achtmal größer ist als die von Puerto Rico und eine fast viermal höhere Pflanzendiversität aufweist. Aufgrund der Vielzahl potentieller neuer Wirtspflanzen in Panama und des von Teerfleckenpilzen bevorzugten tropischen Klimas wird eine weitaus höhere Anzahl an Arten der Phyllachorales erwartet. Zwischen 2005 und 2008 wurden mehreren Exkursionen in den Provinzen Bocas del Toro und Chiriquí durchgeführt, um die tatsächliche Diversität pflanzenparasitischer Mikropilze in Panama zu untersuchen. Über 1.000 Belege wurden von insgesamt vier Wissenschaftlern während 7 Sammelreisen von jeweils 2‐4 Wochen gesammelt. 185 Belege zeigen mehr oder weniger deutliche Symptome von Teerfleckenkrankheit und entsprechen 42 Arten der Phyllachorales, die bisher noch nicht für Panama bekannt sind. 81 Teerfleckenpilze aus Panama werden in dieser Arbeit mit detaillierten Beschreibungen, Zeichnungen und Fotos vorgestellt. Von den 66 bis zur Art bestimmten Phyllachorales werden 27 erstmalig für Panama, 19 für Zentralamerika und 3 für die Neue Welt genannt. Die Erstnachweise von Camarotella costaricensis, Coccodiella miconiicola, Ophiodothella galophila, Phyllachora amphibola, Ph. engleri und Ph. zanthoxylicola wurden bereits vorab publiziert. 21 Arten werden hier zum ersten Mal vorgestellt: Catacauma paramoense, Coccodiella miconiae, Ophiodothella cuervoi, Phyllachora acaciae subsp. pusaethae, Ph. acalyphae, Ph. araliarum, Ph. balansae, Ph. buddleiae, Ph. cynodontis, Ph. galavisii, Ph. gouaniae, Ph. leeae, Ph. meliosmae, Ph. microtheles, Ph. ocoteae, Ph. paraguaya, Ph. phyllanthophila var. phyllanthophila, Ph. puncta subsp. dalbergiicola, Ph. ruelliae, Ph. serjaniae und Ph. smilacicola. Zusätzlich konnte erstmals der Hyperparasit Perizomella inquinans auf Ph. ocoteae für Panama und der Teerfleckenpilz Ph. guazumae für Costa Rica nachgewiesen werden. Von den 15 bisher noch unbestimmten Teerfleckenpilzen sind 9 Arten der Gattungen Camarotella und Phyllachora wahrscheinlich neu für die Wissenschaft und 6 Arten müssen bis zur Bestimmung noch weiter untersucht werden. 10 Taxa wurden aufgrund von Synonymisierung, Zitierungsfehlern oder mangelhaftem Material ausgeschlossen. Für eine sichere Bestimmung der Arten aus Panama wurden alle weltweit bekannten Teerfleckenpilze auf nah verwandten Wirtspflanzen miteinander verglichen. Dazu wurden intensive Literaturrecherche und detaillierte lichtmikroskopische Studien durchgeführt. 190 Typen und autoritative Belege wurden zusätzlich aus 22 Herbarien weltweit ausgeliehen und untersucht. Dabei wurden einige Gruppen von Teerfleckenpilzen auf bestimmten Wirtsfamilien teilweise überarbeitet und Schlüssel für die Bestimmung der jeweiligen Arten erstellt. Ein Vergleich der charakteristischen Merkmale wird als tabellarische Übersicht in den Anmerkungen vorgestellt. Aufgrund der intensiven taxonomischen Arbeit konnten 7 neue Synonyme aufgedeckt werden. Catacauma contractum ist ein Synonym von Ph. gouaniae, Ph. clypeata von Ph. paraguaya, Ph. insueta von Ph. serjaniae, Ph. paulliniae von Ph. galavisii und Ph. swieteniae von Ph. balansae. Für Ph. roureae werden gleich zwei neue Synonyme vorgeschlagen, Ph. connari und Ph. panamensis. Einige der untersuchten Herbarbelege waren nur bruchstückhaft vorhanden oder in sehr schlechtem Zustand. Viele Belege konnten aufgrund mangelnder Informationen nicht gefunden oder wegen sehr langen Lieferungszeiten oder fehlender Kooperationen noch nicht untersucht werden. Die Erstbeschreibungen vieler Arten in der Literatur sind lückenhaft und für die wenigsten Arten sind Abbildungen vorhanden. Dadurch ist eine sichere Artbestimmung ohne Untersuchung des zugehörigen Herbarmaterials oft unmöglich. In dieser Arbeit werden alle 81 untersuchten Teerfleckenpilze mit detaillierten Beschreibungen, Zeichnungen und Fotografien dargestellt, um zukünftige Bestimmungsarbeiten zu erleichtern. 16 Teerfleckenpilze wurden im Rahmen dieser Arbeit zum ersten Mal illustriert: Catacauma paramoense, Ophiodothella cuervoi, O. galophila, Phyllachora acaciae var. enterolobii, Ph. acalyphae, Ph. araliarum, Ph. bonariensis, Ph. engleri, Ph. galavisii, Ph. leeae, Ph. meliosmae, Ph. ocoteae, Ph. ruelliae, Ph. smilacicola, Ph. verbesinae und Polystigma pusillum. Darüber hinaus wurden Ph. acaciae subsp. pusaethae, Ph. cecropiae, Ph. leptochloae, Ph. puncta subsp. dalbergiicola und Ph. weirii in ihrer Darstellung vervollständigt. Für einige Arten werden bislang unveröffentlichte morphologische Merkmale vorgestellt, z.B. chondroide Hyphen, Schleimhüllen oder Andromorphstadien, und die mögliche Verwendung dieser Merkmale zur Artabgrenzung diskutiert. Zusätzlich zu den morphologischen Merkmalen werden molekulare Daten hinzugezogen. Zu Beginn dieser Arbeit standen Sequenzen von nur acht verschiedenen Arten der Phyllachorales s.str. zur Verfügung, davon 3 aus der Gattung Phyllachora. Aufgrund der Tatsache, dass Arten der Phyllachorales auf lebendes Pflanzenmaterial angewiesen sind, ist es bisher noch nicht gelungen, diese Pilze in Kultur zu halten. Die Isolation von DNA‐Material aus eigenen Herbarbelegen oder von auf Silicagel getrockneten Proben erwies sich als wenig erfolgreich. Es war notwendig, das frisch gesammelte Material direkt vor Ort in Panama zu verarbeiten. Die Extraktion von reinem und geeignetem Pilzgewebe stellte sich aufgrund der sehr geringen Fruchtkörpergröße und der engen Anhaftung an das Pflanzengewebe als sehr mühsam dar. Trotzdem wurden 10 neue DNA‐Sequenzen, die jeweils für die kleine bzw. große ribosomale Untereinheit kodieren, von 7 Teerfleckenpilzen, Coccodiella miconiae, Coccodiella sp., Phyllachora engleri, Ph. graminis, Ph. leeae, Ph. ulei und Ph. zanthoxylicola, auf 10 verschiedenen Wirtspflanzen erfolgreich isoliert. Erste molekulare Untersuchungen mittels Maximum Likelihood, Maximum Parsimony und Bayesianischer Analyse eines kombinierten Datensatzes unterstützen die Zugehörigkeit der Phyllachorales zur Unterklasse Sordariomycetidae und deuten auf eine paraphyletische Entwicklung der Gattung Phyllachora hin. Die Typusart, Phyllachora graminis, könnte mit Arten der Gattung Coccodiella enger verwandt sein als mit anderen Arten der Gattung Phyllachora. Bisher fehlen aber noch entsprechende morphologische Merkmale die diese These unterstützen. Weitere Untersuchungen mit einem erweiterten Datensatz sollten unternommen werden. Aufgrund der biotrophen Lebensweise und der damit verbundenen engen Anpassung an die jeweilige Wirtspflanze wird eine hohe Spezifität der Teerfleckenpilze angenommen. Die Identifikation der Wirtspflanze bildet daher eine wichtige Grundlage bei der Bestimmung des Pilzes. Durch die Abwesenheit fertiler Strukturen, wie Blüten und Früchte, wurde eine eindeutige Bestimmung oft erschwert. Pflanzenspezialisten, Fachliteratur, Herbarmaterial und Internetdatenbanken wurden hinzugezogen, um eine möglichst genaue Bestimmung der Wirtspflanzen zu erreichen. Die 81 für Panama vorgestellten Teerfleckenpilze parasitierten auf ungefähr 93 verschiedenen Wirten aus 72 Gattungen und 43 Pflanzenfamilien. 73 Wirtspflanzen wurden bis zur Art bestimmt, 20 können mit Gattungsnamen angesprochen werden und sind von den bisher bestimmten Arten sicher verschieden. 5 Arten sind derzeit noch gänzlich unbestimmt. Von den 73 vollständig bestimmten Pflanzenarten werden 29 zum ersten Mal als Wirte für den entsprechenden Parasiten vorgestellt: Acalypha diversifolia für Phyllachora acalyphae, Anthurium concinnatum für Phyllachora engleri, Buddleja nitida für Phyllachora buddleiae, Cissus trianae für Phyllachora leeae, Croton draco und Croton hirtus für Phyllachora tragiae, Dalbergia brownei für Phyllachora puncta subsp. dalbergiicola, Dichanthelium acuminatum und Dichanthelium viscidellum für Phyllachora bonariensis Speg., Dicliptera iopus für Phyllachora ruelliae, Dioscorea trifida und Dioscorea urophylla für Phyllachora ulei, Entada polystachya für Phyllachora acaciae subsp. pusaethae, Inga punctata und Inga sierrae für Phyllachora amphibola, Luehea seemannii für Phyllachora paraguaya, Ocotea veraguensis für Phyllachora ocoteae, Oreopanax xalapensis für Phyllachora araliarum, Ossaea micrantha für Coccodiella miconiicola, Paspalum paniculatum und P. pilosum für Phyllachora paspalicola, Paullinia bracteosa für Phyllachora galavisii, Phyllanthus anisolobus für Phyllachora phyllanthophila var. phyllanthophila, Serjania atrolineata für Phyllachora serjaniicola, Serjania mexicana für Phyllachora serjaniae, Vaccinium floribundum für Catacauma paramoense und Ophiodothella cuervoi, Xylosma flexuosa für Trabutia xylosmae und Zanthoxylum melanostictum für Phyllachora zanthoxylicola. Teilweise wurden diese Erstnachweise schon vorab publiziert. Arten der Familien Fabaceae, Melastomataceae und Poaceae sind besonders häufig mit Teerfleckenpilzen infiziert und scheinen bevorzugte Wirtspflanzen für Arten der Phyllachorales zu sein. Für ökologische Studien wurden bestimmte Teerfleckenpilze an ausgesuchten Standorten wiederholt zu verschiedenen Jahreszeiten gesammelt und untersucht. Dabei zeigte sich, dass Arten der Ordnung Phyllachorales in zwei Habitaten besonders häufig anzutreffen sind: (1) in offenen, gestörten Gebieten mit Ruderalvegetation und deutlicher Trockenperiode sowie (2) in dichten, ungestörten Bergregenwäldern mit hoher relativer Luftfeuchtigkeit und kontinuierlichem Niederschlag. Eine hohe Pflanzendiversität korreliert nicht mit einer hohen Diversität an Teerfleckenpilzen. Vergleichende Untersuchungen zeigten, dass das Vorkommen von Arten der Phyllachorales wahrscheinlich stärker vom Vorkommen und der Dichte bevorzugter Wirtspflanzen abhängt als von ökologischen Faktoren wie z.B. Vegetationstyp, Höhenlage, relativer Lichtintensität, durchschnittlichem Jahresniederschlag oder jahreszeitlicher Temperaturentwicklung. Die in dieser Studie vorgestellten Teerfleckenpilze stammen aus nur 5 von 12 Provinzen Panamas: Bocas del Toro und Chiriquí im Westen sowie Colón, Kuna Yala und Panamá im Zentrum des Landes. Mithilfe einer Datenbank wurde eine Vielzahl verfügbarer Literaturdaten mit Internet‐Datensätzen ergänzt und daraus eine Verbreitungskarte von Arten der Phyllachorales in der Welt erstellt. Für viele Länder sind nur wenige oder gar keine Teerfleckenpilze bekannt. Das lückenhafte Vorkommen in Panama und anderen Ländern der Welt entspricht aber keinesfalls der natürlichen Verbreitung dieser Pilze, sondern gibt die unterschiedliche Intensität von Forschungsaktivitäten in Bezug auf die Teerfleckenpilze wieder. Weitere Erstnachweise und neue Arten der Ordnung Phyllachorales werden für Panama und die Welt erwartet, denn unser Wissenstand über diese Gruppe ist sehr lückenhaft und weite Gebiete sind bislang noch unzureichend untersucht.
Neue Synthesestrategien als Thema des Chemieunterrichts - Experimente zur Kombinatorischen Chemie
(2010)
In der vorliegenden Dissertation wurde die experimentelle Umsetzung der Thematik Kombinatorische Chemie für den Chemieunterricht in der Sekundarstufe II ausgearbeitet. Dazu wurden geeignete Experimente erarbeitet, die einen Einblick in die Kombinatorische Chemie und somit in die neuen Arbeitmethoden der heutigen Chemie schaffen. Mit deren Hilfe gängige Synthesemethoden wie die Split and Combine-Synthese, Teabag-Methode, Spot-Methode und Pin-Methode aufgezeigt werden können und von den Schülern selbst durchgeführt werden. Als ein vorteilhaftes Modell zum Aufzeigen der Arbeitsweise der Kombinatorischen Chemie haben sich Farbstoffe erwiesen, da sie schnell darstellbar sind und keiner aufwendigen Detektion der entstandenen Produkte bedürfen. Als erstes Farbstoffsystem wurden Azofarbstoffe ausgewählt, da sie auch im fakultativen Themenbereich „Farben“ im Chemieunterricht thematisiert werden. Die Übertragung der normalerweise in Lösung hergestellten Azofarbstoffe auf die Festphasenchemie musste zuerst eine geeignete und kostengünstige Festphase gefunden werden. Hierbei haben sich im Handel erhältliche Ionenaustauscher (Harze ohne Linker), die auch zur Wasseraufbereitung verwendet werden, als geeignet herausgestellt. Die erforderlichen Reaktionsbedingungen der Lösungsreaktionen wurden erprobt, optimiert und auf die Festphasenchemie übertragen. Eine Übertragung der Syntheseprinzipien auf drei weitere Farbstoffsysteme wie der Fluoreszenzfarbstoffe der Pyrydin- und Pyrylium-Reihe sowie der Oxidationsfarbstoffe schloß sich an. Nunmehr stehen für den schulischen Einsatz, aber auch für die Ausbildung, einfache Systeme zur Verfügung, die anhand schnell und problemlos durchzuführender Experimente einen Zugang zu unterschiedlichen Methoden der Kombinatorischen Chemie vermitteln können. Dabei bieten die Experimente Anregungen für weitere Arbeiten. Als problematisch stellte sich jedoch der Zugang zu mehrstufigen kombinatorischen Synthesen auf dem Gebiet der Farbstoffe dar. Hier stößt man mit den aus didaktischen Überlegungen sehr einfach gewählten Beispielen an eine Grenze. Ergänzend wurde die Thematik Kombinatorische Chemie mit hochbegabten Schülern der Internatsschule Schloß Hansenberg und interessierten Schülern aus dem Raum Frankfurt, die an dem Projekt Science Camp teilnahmen, erprobt und das Verständnis für diese Thematik mittels eines Fragebogens untersucht. Ein direkter Vergleich beider Schülergruppen konnte aufgrund unterschiedlicher schulischer Bildung nicht vorgenommen werden, weshalb die Auswertung lediglich erste Eindrücke vermittelt. Danach ist das bisher ausgearbeitete Konzept in Lerngruppen mit hochbegabten Schülern gut einsetzbar. Ein Vergleich mit durchschnittlich leistungsstarken Lerngruppen steht noch aus. Eine wünschenswerte Erweiterung und ein Ausbau der Thematik aus Sicht der Schulchemie sollte anorganische Systeme mit einbeziehen und Strategien der Dekonvolution.
Das visuelle Arbeitsgedächtnis (AG) kann visuelle Information enkodieren, über eine kurze Zeitperiode aktiv halten und mit neu wahrgenommener Information vergleichen. Dadurch ermöglicht es eine Reihe höherer kognitiver Funktionen ( z.B. Kopfrechnen). Störungen des visuellen AGs sind ein relevantes Symptom neurologischer und psychiatrischer Erkrankungen. Die funktionellen und neuronalen Prozesse, die dem visuellen AG unterliegen, stellen eine fundamentale Frage der kognitiven Neurowissenschaft dar. Bisherige Forschung hat bereits einen großen Beitrag zum Verständnis der Vorgänge während der Enkodierungs- und Halte-Phase des AGs geleistet. Die neuronalen Korrelate der Wiedererkennung (WE) hingegen sind relativ unbekannt. Ziel der vorliegenden Studie war es, die neuronalen Mechanismen der WE anhand zweier Modulationen (Gedächtnisbelastung und Ähnlichkeit zwischen Merk- und Test-Stimulus) zu erforschen. Den neuronalen Grundlagen von Ähnlichkeit zwischen wurde bislang nahezu keine Beachtung geschenkt, ihre Untersuchung stellte deshalb eine wesentliche Motivation der Arbeit dar. Da erhöhte Gedächtnislast bei einer endlichen Anzahl an Stimuli zu einer erhöhten Anzahl an möglichen ähnlichen Test-Stimuli und auf diese Weise zu einer erhöhten Ähnlichkeit zwischen Merk- und Test-Stimulus führen kann, sind die Effekte beider Modulationen konfundiert. Es sollte deshalb zusätzlich der Nachweis für einen ähnlichkeitsunabhängigen Lasteffekt erbracht werden. Im Rahmen der vorliegenden Dissertation stand der zeitliche Ablauf der zu erwartenden kortikalen Aktivationen im Mittelpunkt des Interesses. Aus diesem Grund kam die Magnetenzephalographie (MEG) mit ihrem hervorragenden zeitlichen und guten räumlichen Auflösungsvermögen zum Einsatz. Die neuronale Aktivität von 17 Probanden wurde mittels MEG erfasst. Zusätzlich wurden Verhaltensdaten (VD) in Form von Reaktionszeit (RZ) und Korrektheit (KH) der Antworten aufgezeichnet. Als Stimuli dienten 15 verschiedene Farben, die einmal den gesamten Farbkreis abbildeten. 1 oder 3 verschiedenfarbige Quadrate dienten als Merk-Stimuli und ein farbiges Quadrat, das einem der vorher gezeigten glich (G), ihm ähnlich (Ä) oder unähnlich (U) war, folgte als Test-Stimulus. Die Probanden antworteten per Fingerheben aus einer Lichtschranke, ob der Test-Stimulus dem Merk-Stimulus glich (G) oder nicht glich (Ä, U). Insgesamt führten die 2 Belastungsmodulationen und die 3 Ähnlichkeitsmodulationen zu einem 2 x 3 Design, das eine Untersuchung der Haupteffekte und Interaktionen von Ähnlichkeit und Last ermöglichte. Die Ergebnisse der VD decken sich mit früheren Erkenntnissen, die mit ansteigender Gedächtnislast und Ähnlichkeit von einer signifikanten Verminderung der KH der Antworten sowie einer signifikanten Zunahme der RZ berichteten. Zusätzlich konnte eine signifikante Interaktion beider Modulationen beobachtet werden. Mit zunehmender Gedächtnislast verlängerte sich die RZ, bzw. verminderte sich die KH der Antworten für gleiche Testreize stärker als für ungleiche (Ä, U). Es konnten wesentliche neue Erkenntnisse über die neuronalen Korrelate der WE im visuellen AG gewonnen werden. Für die Ähnlichkeits-Modulation konnten drei zeitlich, räumlich und funktionell distinkte Ereigniskorrelierte-Felder (EKF)-Komponenten detektiert werden: eine frühe Komponente, die stärker auf U im Vergleich zu Ä und G Stimuli ansprach, eine mittlere, die mit der Schwierigkeit der Aufgabe assoziiert war sowie eine späte Komponente, die als Korrelat einer kategorialen Entscheidung interpretiert wurde. Diese Ergebnisse replizieren Befunde von Studien über die Entscheidungsfindung und die summierte Ähnlichkeit im Langzeitgedächtnis (LZG) und liefern gleichzeitig neue Hinweise für eine funktionelle Dissoziation verschiedener Komponenten der WE im visuellen AG. Die WE scheint aus der Berechnung der summierten Ähnlichkeit, der Entscheidungsfindung sowie der Evidenzevaluation unter schwierigeren Bedingungen zu bestehen. Es gelang außerdem der Nachweis eines ähnlichkeitsunabhängigen Effektes der Lastmodulation. Es konnte eine bilateral parieto-okzipitale sowie eine linksseitig fronto-temporale Aktivierung erfasst werden, die wahrscheinlich allgemeinen Schwierigkeitseffekten entsprechen. Unter ansteigender Gedächtnisbelastung kam es zu einer Zunahme der Amplitude beider Aktivitäten. Diese Ergebnisse bestätigen Befunde über die Amplitudenentwicklung während der Halte-Phase, die als Heranziehung zusätzlicher Ressourcen unter schwierigeren Bedingungen gedeutet wurden. Die EKF-Daten konnten jedoch keine Bestätigung des in den VD nachgewiesenen Interaktionseffektes bringen. Vielversprechende Ansätze für zukünftige Studien bieten eine präzisere Bestimmung der räumlichen Verteilung sowie eine weitere Evaluation der kognitiven Funktion der neuronalen Aktivität der Ähnlichkeit, da die Ähnlichkeit zwischen Merk- und Test-Stimulus eine entscheidende Rolle bei der Beschränkung der WE-Leistung einzunehmen scheint.
Selbstverletzendes Verhalten – die selbst herbeigeführte Verletzung des eigenen
Körpers – wird bisher in diagnostischen Manualen nicht als eigenständiges
Krankheitsbild geführt, sondern lediglich als Symptom verschiedener psychischer
Krankheitsbilder, wie Essstörungen, Abhängigkeitsstörungen, Zwangsstörungen und
vor allem als ein Kriterium der Borderline Persönlichkeitsstörung, erwähnt. Aufgrund
dessen beschäftigte sich die vorliegende Arbeit ausschließlich mit dem
Symptomkomplex Selbstverletzendes Verhalten und suchte erstmalig nach einem
gemeinsamen Korrelat des Phänomens auf neuronaler Ebene. Im Kontext der
vorliegenden Untersuchung wurden zehn Patienten mit Selbstverletzendem Verhalten
ausgewählt und zunächst gebeten unter Zuhilfenahme der Selbstbeurteilungs-
Fragebögen DSHI und SHBQ ihre Selbstverletzung und mögliche suizidale Handlungen
zu charakterisieren. In einem Interview wurden die Patienten zu ihrer psychischen
Krankengeschichte befragt, der HADS-D diente der Erfassung von Komorbiditäten.
Anschließend erfolgte eine Messung der zehn Selbstverletzer sowie zehn gesunder
Kontrollprobanden mittels funktioneller Magnetresonanztomographie während einer
visuellen Präsentation von symptomspezifischen Stimuli. Im Rahmen eines Blockdesigns
wurden Bilder mit selbstverletzenden und suizidalen Szenen randomisiert
dargeboten. Die emotionale Bedeutsamkeit und Valenz der gezeigten Bilder wurden
anschließend mithilfe eines Post-fMRT-Befragungsbogens eruiert.
Die Auswahl der Patienten nach dem Selbstverletzenden Verhalten und nicht nach der
Diagnose war ebenso wie das Design mit selbstverletzenden und suizidalen Stimuli
einzigartig. Die Ergebnisse dieser innovativen Studie offenbarten bei den Patienten
beim Betrachten der selbstverletzenden Szenen eine gesteigerte Aktivität eines weit
gefächertes Netzwerkes von Gehirnarealen, die eine essenzielle Rolle in der
Verarbeitung von Emotionen spielen. Dazu zählen vor allem limbische Strukturen wie
Amygdala und Hippocampus, aber auch frontale Areale, im Besonderen der
präfrontale Cortex. Diese Strukturen sind vergleichbar mit denen, die bei einer
Borderline Persönlichkeitsstörung neuronal verändert sind. Die Präsentation der
suizidalen Bilder rief ebenfalls eine Mehraktivierung der genannten Regionen hervor,
allerdings in einem geringeren Ausmaß.
Im Zusammenhang mit den selbstverletzenden Szenen ist vor allem die erstmalige
Darstellung von Arealen, die dem Belohnungssystem zuzuordnen sind und teilweise
Bestandteil dopaminerger Bahnen sind, hervorzuheben. So präsentierten sich die
Substantia nigra, Teile des Mesenzephalons und vor allem die Basalganglien verstärkt
aktiviert. Dies deutet darauf hin, dass erstmalig neuronale Strukturen abgebildet
wurden, die spezifisch für das Selbstverletzende Verhalten sind. Da die erhöhte
Aktivität der genannten Gehirnareale mit der neuronalen Momentaufnahme eines
Suchtkranken vergleichbar ist, wäre eine mögliche Einordnung der Selbstverletzung in
die bestehende Kategorie der Abhängigkeitserkrankungen naheliegend. Die
beschriebene Studie legt den Zusammenhang zwischen Selbstverletzenden Verhalten
und einer Abhängigkeitsstörung zum ersten Mal in dieser Form dar, so dass
weitergehende Untersuchungen in diese Richtung notwendig sind. Jedoch wird mittels
der Resultate der funktionellen Magnetresonanztomographie ein besseres Verständnis
des komplexen Charakters der Erkrankung ermöglicht und Veränderungen in der
Behandlung und dem individuellen Umgang mit dem Selbstverletzer müssen in
Betracht gezogen werden. Weiterhin verdeutlichen die Studienresultate, dass die
Etablierung der Erkrankung als eigenständiger Symptomkomplex in gängige Diagnostikund
Behandlungsmanuale in Zukunft unumgänglich sein wird.
Die Objekterkennung spielt für die menschliche Wahrnehmung eine zentrale Rolle. Hierzu nutzen wir das visuelle System in ähnlichem Maße wie den Tastsinn zur Exploration unserer Umwelt. In Kombination beider Sinne gelingt es uns unser Umfeld adäquat wahrzunehmen. Um postulierte Interaktionen zwischen visuellem und haptischem System aufzudecken und näher zu untersuchen, bedienten wir uns der Methode der funktionellen Magnetresonanztomographie.
Vorangehende funktionell bildgebende Studien über visuo-haptische zerebrale Informationsverarbeitung beschrieben den lateralen okzipi-talen taktil-visuellen Kortex (LOtv) und den intraparietalen Sulcus (IPS) als Hauptkandidaten für visuo-haptische Integration (Amedi et al., 2005; Sathian, 2005). Die meisten Studien betrachteten jedoch alleinig Schnittmengen aus Ergebnissen nach unimodaler Aktivierung. Um nun strengere statistische Kriterien für das Auffinden visuo-haptischer Integrationsareale zu testen (Beauchamp, 2005; Laurienti et al., 2005), suchten wir nach Regionen, welche durch direkte bimodale Stimulation stärker aktiviert werden, als nach Darbietung unimodaler Reize. Ziel dieser Arbeit war es, in Anlehnung an vorbestehende Literatur unter Zuhilfenahme strengerer statistischer Kriterien und mittels abstrakten Stimulations-Materials nach Integrationseffekten infolge simultaner visuo-haptischer Stimulation im menschlichen Gehirn zu suchen. Neurophysiologische Grundlage dieses Vorhabens ist dabei die Annahme, dass neuronale Gruppen spezifische Funktionen erfüllen und deren Aktivität über das sogenannte „Blood Oxygen Level Dependend-Signal“ (BOLD-Signal) mittels fMRT sichtbar gemacht werden kann.
Sechzehn gesunde Probanden partizipierten an der vorliegenden Studie. Während des Experiments kamen Schwarz-weiß-Fotografien und haptisch zu explorierende Figuren wahlweise von Tieren oder abstrakten Objekten zum Einsatz. Diese wurden dem jeweiligen Probanden teils als Einzelreiz (rein visuell/rein haptisch), teils simultan als visuo-haptische Reize während des fMRT-Messvorgangs dargeboten. Diese visuo-haptische Objektdarbietung führte zu einer signifikanten Aktivierung verschiedener kortikaler Gehirnregionen. Im Rahmen unseres Experiments konnten hauptsächlich drei bilaterale Regionen identifiziert werden, welche einen visuo-haptischen Integrationseffekt für das verwendete Stimulusmaterial zeigten: LOtv, IPS und das anteriore Cerebellum. Interessanterweise zeigte das rechtslaterale Cerebellum den robustesten visuo-haptischen Effekt, der weder vom Stimulusmaterial (Tiere/Fribbles), noch von der Kongruenz der dargebotenen Reize abzuhängen schien.
Aufgrund der Beobachtung, dass selbst isolierte motorische Beanspruchung Aktivationssignale im Gehirn auslösen kann, wurde ein zweites Studienprotokoll zum Ausschluss motorischer Aktivität als alleinige Komponente der Signalantwort entwickelt und eine zusätzliche rein motorische Kontrollbedingung eingeführt. Im Folgenden ließen sich die im Hauptexperiment identifizierten Regionen auch unter dieser zusätzlichen Bedingung abbilden. Mit unserem Studiendesign gelang es, die in der Literatur als multisensorisch vorbeschriebenen Regionen erneut nachzuweisen. Zusätzlich deuten unsere Ergebnisse darauf hin, dass es cerebelläre bimodal integrierende Areale gibt, welche auch in Abwesenheit zusätzlicher Aufgabenstellungen eine wichtige Rolle in visuo-haptischen Verarbeitungsprozessen spielen. Es bleibt jedoch abzuwarten, ob diese Regionen zukünftig endgültig als multisensorisch einzustufen sind.
Die Hämophile ist eine X-chromosomal vererbbare Blutungserkrankung, die durch einen funktionellen Mangel der Gerinnungsaktoren Faktor VIII oder Faktor IX im Fall der Hämo-philie A oder Hämophilie B hervorgerufen wird. Der niedrige therapeutische Schwellenwert in der Behandlung der Hämophilie (Faktorenspiegel >1%) macht diese Krankheit zu einem idealen Zielobjekt in der Gentherapie. Eine schwerwiegende Komplikation in der Behandlung der Hämophilen besteht in der Entwicklung von neutralisierenden Antikörpern gegen das the-rapeutisch substituierte Protein. Akute Blutungen in solchen Hemmkörper-Patienten werden derzeit durch FVIII- und FIX-unabhängigen Bypass-Agenzien kontrolliert. Im Rahmen dieser Arbeit wurde nach einer erfolgten Optimierung eines nicht-viralen Ansatzes zur Transgenex-pression von FIX in der Leber der Maus dieses Gentransfersystem dazu verwendet, um eine Entwicklung von neuen, auf FIX basierenden, FVIII-Bypass-Strategien in vivo zu ermöglichen. Im ersten Teil der vorliegenden Arbeit wurden Plasmidvektoren und Vektorrückgrat-freie Minicircle-Konstrukte auf ihre Effizienz zur Expression des FIX-Transgens nach hydrodyna-misch basiertem Gentransfer in die Leber der Maus untersucht. Der Gentransfer der Mini-circle führte hierbei zu einer höheren Transgenexpression und einem geringeren Abfall der FIX-Antigen-Spiegel über die Zeit. Darüber hinaus war das FIX-Protein selbst bei den höchs-ten Expressionsleveln (700% des physiologischen Levels) völlig funktional aktiv. Der Abfall der Transgenexpression über die Zeit konnte größtenteils auf den Verlust des Vektors zurück-geführt werden. Ein signifikanter Silencing-Effekt konnte nur in den Plasmidvektor- und nicht in den Minicircle-behandelten Gruppen beobachtet werden. Diesbezüglich wurde nach 100 Tagen Persistenz der nicht-viralen Vektoren in der Mausleber eine signifikante Akkumulation an CpG-Methylierungen in regulatorischen Sequenzen des hAAT-Promoters im Plasmidvek-tor gegenüber den Minicirclen ermittelt. Außerdem konnte ebenfalls eine Demethylierung von Cytosin-Nukleotiden in bakteriellen Dcm-Sequenzmotiven über die Zeit beobachtet werden, die eine signifikant höhere Rate für das Minicircle-Konstrukt im hAAT-Promoter aufwies. Die erprobten nicht-viralen Vektoren versprechen somit eine ausreichende Effizienz, um eine Translation in den Menschen, z. B. über eine spezifische Behandlung von Lebersegmenten, möglich erscheinen zu lassen. Die Methylierungsanalyse von Promoterelementen auf Sequenzebene erbrachte zudem konkrete Ansätze zum Design von nicht-viralen Vektoren mit einer noch stabileren FIX-Expression. Im zweiten Teil dieser Arbeit wurde mit Hilfe eines Screening-Systems zur Aktivitätstestung von rekombinant exprimierten FIX-Varianten die Mutation K265T als die entscheidende Sub-stitution im 99-loop identifiziert, welche die FVIII-unabhängige Aktivität im FIX-Protein unter physiologischen Bedingungen begünstigt. Das Wildtyp- IX-Protein braucht hingegen FVIII um eine 106-fache Steigerung seiner proteolytischen Aktivität zu erreichen. Durch Kombination der Mutation K265T mit V181I und I383V konnte diese spezifische FVIII-Bypass-Aktivität in der resultierenden FIX-Variante (ITV) auf 15,6% (verglichen zu FIX in Anwesenheit von FVIII) gesteigert werden. Durch Inkubation der FIX-Varianten mit Plasma-proben aus Hemmkörper-Patienten konnte die Funktionalität der FIX-Varianten selbst in der Anwesenheit von inhibitorischen FVIII-Antikörpern demonstriert werden. Durch Untersu-chungen des Aktivierungszustands von FIX konnte zudem gezeigt werden, dass die im Rah-men dieser Arbeit generierten FIX-Varianten nicht voraktiviert sind und die messbare FVIII-Bypass-Aktivität FIX spezifisch ist. Darüber hinaus konnte hier erstmals eine hämostatische Effizienz von FIX-Varianten mit einer FVIII-unabhängigen Aktivität in einem relevanten Krankheitsmodel demonstriert werden. Diesbezüglich resultierte der nicht-virale Gentransfer der FIX-Varianten in FVIII-K.O.-Mäusen in einer dosisabhängigen Verkürzung der aPTT-basierenden Gerinnungszeit und in einer Reduktion des Blutverlustes im tail-clip-Assay in An- oder Abwesenheit von inhibitorischen FVIII-Antikörpern. Desweiteren konnte zudem mittels Vakzinierung von FIX-WT-tolerierten Mäusen mit den FIX-Varianten demonstriert werden, dass die hier eingeführten Mutationen keine hoch-immunogenen Epitope des FIX-Proteins betreffen. Schließlich konnte die Expression der FIX-Varianten in hämostatisch normalen Mäusen nicht mit der Entstehung von thromboembolischen Ereignissen selbst in einem intakten Gerinnungssystem assoziiert werden. Die hier beschriebenen FIX-Varianten könnten somit einen sicheren und effizienten Therapieansatz zur Behandlung der Hämophilie A mit inhibitorischen Antikörpern darstellen und hinsichtlich der Halbwertszeit und des möglichen throboembolischen Risikos zu einer wesentlichen Verbesserung der bereits verfügbaren Bypass-Strategien beitragen.
Nikotinabhänigkeit und -abstinenz sind mit erniedrigtem bzw. erhöhtem Körpergewicht assoziiert. Dem Nucleus arcuatus kommt eine Schlüsselrolle bei der Körpergewichtsregulation zu, und es wurde bereits gezeigt, dass eine inadäquate Genexpression in diesem hypothalamischen Kerngebiet zu Adipositas führen kann. Obwohl bekannt ist, dass Nikotin die Genexpression im Hypothalamus beeinflussen kann, sind die genauen Mechanismen, die zu den anorektischen Effekten führen, noch weitgehend unbekannt. Diese Studie wurde durchgeführt, um eine Methode zu etablieren, mit der umfassende und informative Genexpressionsprofile im Nucleus arcuatus - unter anderem - in Abhänigkeit von Nikotinwirkungen erstellt werden können. Hierzu wurden Microarrays mit einer limitierten Zahl an Genen hergestellt, für die teilweise bereits Informationen zu Nikotin-abhängiger Gegenregulation verfügbar waren. Fünfundzwanzig Fischer-Ratten wurden miniosmotische Pumpen implantiert, die entweder Nikotin (9mg/kg Körpergewicht/ Tag) oder physiologische Kochsalzlösung freisetzten. Nach einer Woche wurde ein Teil der Tiere getötet, während bei den übrigen Tieren die Effekte einer dreitägigen Nikotinabstinenz untersucht wurden. Die Nikotinbehandlung war mit einer reduzierten Gewichtszunahme sowie einer erhöhten Rektaltemperatur (p=0,001) assoziiert. Die Nikotinabstinenz führte dagegen zu einer gesteigerten Gewichtszunahme (p=0,012), einer erniedrigten Rektaltemperatur sowie einer höheren Serumglukosekonzentration (p=0,028). Für die Serumkonzentrationen von Insulin, Leptin, Cholesterin oder Triglyceriden konnten keine signifikanten Unterschiede aufgezeigt werden, was möglicherweise aber auf die relativ geringe Anzahl an Versuchstieren zurückzuführen ist. Mit den Microarray-Studien ließen sich die vorbeschriebenen Daten für die Nikotin-abhängige Regulation der Genexpression von NPY sowie teilweise auch von POMC bestätigen. Darüberhinaus konnten neue Informationen im Hinblick auf die Nikotinabhängige Regulation der Genexpression von AGRP, LepRb, Insulinrezeptor, MC3R, NPY-Y5-Rezeptor, Prohormone-Convertase-1, POMC und SOCS-3 gewonnen werden. Zusätzlich zu den neuen Daten stellen wir somit einen methodischen Ansatz vor, mit dem Expressionsprofile für viele hundert hypothalamischen Genen in Abhängigkeit von Manipulationen des Körpergewichts erstellt werden können, um so dann tiefgreifende Einsichten in die neuronalen molekularen Mechanismen der Körpergewichtskontrolle nehmen zu können.
NMR-spektroskopische Untersuchungen zur Bindung kleiner Moleküle an das Zellzyklusprotein CDC25A
(2010)
Viele verschiedene Funktionen der Zelle werden durch posttranslationale Modifikationen von Proteinen reguliert. Die reversible Phosphorylierung der OH-Gruppen der Aminosäuren Serin, Threonin und Tyrosin ist eine der Möglichkeiten die Aktivität von Proteinen an- und abzuschalten und Interaktion mit Bindungspartnern zu ermöglichen oder zu verhindern. Die Phosphatase CDC25A übernimmt eine zentrale Rolle in der Steuerung des Zellzyklus, unterliegt selbst wiederum einer differenzierten Kontrolle durch Änderung des Expressionslevel, Phosphorylierung und Lokalisation innerhalb der Zelle. Da eine Überfunktion von CDC25A mit einer Vielzahl von verschiedenen Krebserkrankungen assoziiert ist, wird die Entwicklung starker und selektiver Inhibitoren, die auch in vivo wirksam sind, vorangetrieben. Die strukturellen Grundlagen selektiver Inhibition sind allerdings noch unzureichend erforscht. Im ersten Teil dieser Arbeit wurden die Grundlagen für eine erfolgreiche Durchführung von NMR-Experimenten gelegt, für die Proteinproben mit hoher Konzentration und Langzeitstabilität benötigt werden. CDC25A kann nicht in der vollen Länge exprimiert werden und wäre als Vollkonstrukt auch zu groß, um effektiv per NMR untersuchbar zu sein. Durch Erzeugung diverser Konstrukte der katalytischen Domäne von CDC25A konnte ein Expressionslevel erreicht werden, der die Erzeugung ausreichender Mengen an Protein praktikabel macht. Neben des oftmals geringen Expressionslevels ist ein weiteres Problem bei NMR-spektroskopischen Untersuchungen vieler Phosphatasen deren geringe Stabilität während der Aufreinigung und in der endgültigen Probe. Durch Optimierung der Pufferbedingungen für den Zellaufschluss in Bezug auf pH-Wert, Salzkonzentration und Art des Kations per „Incomplete Factorial Design“ konnte die Ausbeute an löslichem Protein erheblich gesteigert werden. Die Verwendung dieser Pufferbedingungen während der ersten Aufreinigungsschritte verminderte auch die Tendenz des Proteins während der Chromatografie auszufallen. Die Zusammensetzung des Puffers für die endgültige NMR-Probe wurde schließlich durch das aus der Kristallografie entlehnte Verfahren der Dampfdiffusion ebenso in Hinblick auf pH-Wert, Salzkonzentration und Art des Anions optimiert. Unter diesen optimierten Pufferbedingungen wurde die katalytische Aktivität des Proteinkonstrukts anhand der Hydrolyse von para-Nitrophenylphosphat nachgewiesen. Acht Substanzen wurden auf Inhibition dieser katalytischen Aktivität getestet. Das natürliche Substrat Phosphotyrosin zeigte eine kompetitive Hemmung, zwei starke und ein schwacher Inhibitor zeigten entsprechend verminderte Reaktionsraten. Von den restlichen 4 Substanzen (Inhibitoren anderer Protein-Tyrosin-Phosphatasen und strukturelle Verwandte) zeigten 3 weitere eine starke Wirkung. Diese hohe Promiskuität gegenüber Inhibitoren stellt ein großes Problem für die strukturgetriebene Wirkstoffentwicklung bei CDC25A und generell aller Phosphatasen dar. Nach Erhalt der fertigen Proben zeigten erste 2D-NMR-Spektren eine geringer als zu erwartende Zahl von Signalen und starke Überlappungen der sichtbaren Signale. Um auszuschließen, das Dimerisierung oder unspezifische Aggregation hierfür verantwortlich sind, wurden DOSY-Spektren gemessen. Aus der Eigendiffusionsrate ergibt sich ein hydrodynamischer Radius, der mit durch HYDROPRO simulierten Werten übereinstimmt und sich deutlich von dem des putativen Dimers absetzt. Daher wird davon ausgegangen, dass die Signalverluste im NMR nicht durch Dimerisierung oder Aggregation ausgelöst werden. Um die Bindung von Inhibitoren auch durch NMR-Spektroskopie nachzuweisen, wurden Saturation-Transfer-Difference-Experimente (STD) durchgeführt. In diesen war aber sowohl für das natürliche Substrat Phosphotyrosin als auch für alle im Enzymtest aktiven Inhibitoren kein Effekt nachweisbar. Dies weist auf eine sehr hohe koff-Rate der Bindung an das Protein hin oder auf eine irreversible chemische Modifikation des aktiven Zentrums, die bis zum Zeitpunkt der Messung bereits abgeschlossen war. Für die strukturbasierte Wirkstoffentwicklung werden spezifische Interaktionspunkte auf der Proteinoberfläche gesucht. Hierfür wurden 15N-HSQC-Spektren mit und ohne Bindungspartner gemessen und die Veränderungen der chemischen Verschiebung bestimmt („chemical shift perturbation“). Es konnten für Phosphotyrosin und die beiden starken Inhibitoren BN82002 und NSC663284 signifikante Veränderungen nachgewiesen werden. Für alle drei Moleküle gab es sowohl komplett einzigartige Veränderungen als auch paarweise übereinstimmende als auch ein Signal das für alle 3 übereinstimmt. Neben den Inhibitoren wurden drei Peptide auf spezifische Interaktion getestet. Das erste entspricht der Zielsequenz des natürlichen Substrats CDK, die anderen beiden sind Teile der Sequenz von CDK an einer nachgewiesenen als auch einer putativen sekundären Interaktionsfläche der beiden Proteine. Auch für die drei Peptide konnten wie für die Inhibitoren individuelle als auch übereinstimmende Signalveränderungen nachgewiesen werden. Als Voraussetzung für die Bestimmung der Oberflächenkontakte, die für die spezifische Bindung von Substrat, Inhibitoren und Interaktionspeptiden nötig sind, wird eine Zuordnung der Signale des 15N-HSQC-Spektrums zu den Aminosäureresten des Proteins benötigt. Hierzu wurden 3D-Tripelresonanz-NMR-Experimente an 15N, 13C-markierten Proben (zusätzlich auch noch 2H-markierte Proben zur Unterdrückung von Relaxationseffekten) durchgeführt. Um die Zuordnung zu unterstützen wurden außerdem Proben mit individuell 15N-markierten Aminosäuren hergestellt, um einem Signal im HSQC zumindest den Typ der Aminosäure zuordnen zu können. Aufgrund der trotz Pufferoptimierung, Deuterierung des Proteins und verringerter Signalüberlagerung in den Spektren der individuell markierten Proben zu geringen Anzahl an Signalen konnten nur kurze Bereiche der Aminosäuresequenz zugeordnet werden. Aufgrund dieser Basis konnte kein aussagekräftiges Mapping erzielt werden.
Der durchflusszytometrische Nachweis antigenspezifischer T-Lymphozyten über die
Zytokinproduktion nach Kurzeitstimulation ermöglicht Aussagen über die zelluläre
Immunität, was in bestimmten Patientenkollektiven wie z. B. stammzelltransplantierten
Patienten von großem Wert sein kann. Infektionen mit Herpesviren wie z.B. dem
humanen Zytomegalievirus (CMV) oder den Herpes-Simplex-Viren (HSV) können in
diesem Kollektiv zu schweren, zum Teil auch letal verlaufenden Erkrankungen führen.
Zwar wurde diese Methode inzwischen durch die Entwicklung kommerzieller Testkits
zum Nachweis dieser Lymphozyten direkt aus Vollblut vereinfacht. Dennoch ist die
Durchführung dieses Tests nur wenig standardisiert und sehr aufwendig. In dieser
Arbeit wurde die Methode der Bestimmung antigenspezifischer T-Lymphozyten aus
Vollblut daher im Bezug auf die Durchführbarkeit optimiert sowie die Anwendbarkeit
dieser Methode bei Patienten mit bestehender Lymphopenie evaluiert.
Im Einzelnen wurde zunächst die Messung antigenspezifischer CD4+ T-Lymphozyten
anhand des Superantigens Staphylokokkenenterotoxin-B (SEB) sowie der Herpesviren
CMV und HSV-1 eingeführt. Hierzu wurde die Spezifität der Lymphozytenreaktionen
im Hinblick auf den Immunstatus von Probanden getestet und die Reproduzierbarkeit
der Messergebnisse ermittelt. Zur Vereinfachung der Stimulation wurde der
Thermoblock eingeführt, der die Inkubation der Proben automatisch nach einer
vorgegebenen Zeitspanne beendet. Vergleichende Ansätze nach der herkömmlichen
Methode mit einer Inkubation im Brutschrank ergaben keine Differenzen zwischen den
Inkubationsmethoden hinsichtlich der Resultate. Weiterhin wurde versucht, die Proben
zu konservieren, um so das Zeitfenster zwischen Blutentnahme und Verarbeitung der
Blutprobe zu vergrößern. Hierfür wurden die Proben mit dem Reagenz CytoChex®
behandelt, einem Zellstabilisator, der der Konservierung von Leukozyten dient. Trotz
mehrfacher Abwandlung des Protokolls gelang es nicht, die Blutproben für die
antigenspezifische Stimulation zu konservieren.
Ein zentraler Teil dieser Arbeit befasst sich mit der Fragestellung nach der
Anwendbarkeit dieses Testes zum Nachweis CMV-spezifischer T-Lymphozyten im
Rahmen einer Lymphopenie. Dies wurde bei einem Kollektiv stammzelltransplantierter
Patienten untersucht. Es zeigte sich, dass in diesem Kollektiv der Test durchführbar ist,
wenn mindestens 1.000 CD8+ T-Lymphozyten bzw. 3.000 CD4+ T-Lymphozyten durchflusszytometrisch nachgewiesen werden konnten. Anhand dieses Kollektivs wurde
zuletzt die Effizienz dieser Methode durch Weglassen der Kontrollantigenmessungen in
bestimmten Fällen und Einführung eines Auswertungstemplates zur indirekten
Ermittlung CD4+ T-Lymphozyten aus der CD8+ T-Lymphozytenmessung gesteigert.
Zusammenfassend bringen die in dieser Arbeit vorgestellten Modifikationen der
Standardmethode eine deutliche Vereinfachung mit sich. Weiterhin wird es möglich,
auch im Rahmen einer Lymphopenie antigenspezifische T-Lymphozyten nachzuweisen.
Dies ermöglicht zumindest weitere Untersuchungen im Hinblick auf die Fragestellung
nach einer ausreichenden Immunantwort gegen CMV bei immunsupprimierten
Patienten. So können in Zukunft auch bei Patienten mit hohem Risiko für eine CMVReaktivierung
und Erkrankung Aussagen über die Immunsituation gemacht werden um
möglicherweise eine Verbesserung der diagnostischen und damit auch therapeutischen
Situation dieser Patienten zu erzielen.
"Protein Associated with Myc" (PAM) hat aufgrund seiner enormen Größe von 510 kD und der Vielzahl an Proteinbindungsstellen das Potential viele regulatorische und physiologische Prozesse zu regulieren. Mit der Funktion als E3-Ubiquitinligase und davon unabhängigen Proteininteraktionen reguliert es beispielsweise Prozesse der Synaptogenese und der spinalen Schmerzverarbeitung, wie auch die Regulation des Pteridin Stoffwechsels und des cAMP-Signalweges. Im Gegensatz zur spinalen Schmerzverarbeitung war eine Beteiligung von PAM an der peripheren Nozizeption bisher unbekannt und sollte im Rahmen dieser Arbeit untersucht werden. Dazu wurden konditionale PAM-Knockout Mäuse generiert und charakterisiert. Zum einen wurde PAM in Vorläuferzellen von Neuronen und Gliazellen und zum anderen in allen nozizeptiven und thermorezeptiven Neuronen der Dorsalganglia und der Ganglia trigeminale deletiert. Der Knockout in Neuronen und Gliazellen führte zu einer pränatalen Letalität und unterstreicht so die Bedeutung von PAM während der Neuronenentwicklung. Mit Hilfe des spezifischen Knockouts in nozizeptiven Neuronen konnte eine Rolle von PAM bei der Regulation der thermischen Hyperalgesie gezeigt werden. Keinen Einfluss hatte die Deletion von PAM auf basale thermische und mechanische Schmerzschwellen, sowie auf Formalin-induzierte akute Schmerzen. Als potentieller Mechanismus wurde der mTOR- und der p38 MAPK-Signalweg untersucht. Dabei konnte eine Vermittlung der S1P-induzierten mTOR-Aktivierung durch PAM nachgewiesen werden und Rheb als eine Komponente dieser Aktivierung ermittelt werden. Der p38 MAPK Signalweg war in Abwesenheit von PAM konstitutiv aktiviert und einige Proteine des Rezeptortraffickings waren verstärkt exprimiert. Als ursächlich für die beobachtete verlängerte Hyperalgesie in PAM-defizienten Mäusen konnte die Unterbindung der Internalisierung des TRPV1-Rezeptors nachgewiesen werden. Dieser Effekt ist spezifisch für TRPV1, da der verwandte Ionenkanal TRPA1 durch die PAM-Deletion nicht beeinträchtigt wurde. In der vorliegenden Arbeit konnte so zum ersten Mal gezeigt werden, dass PAM in peripheren nozizeptiven Neuronen über die p38 MAPK-vermittelte Internalisierung von TRPV1 die Dauer der thermischen Hyperalgesie reguliert.
Pharmakokinetische Charakterisierung der Terpenlaktone aus Ginkgo biloba im ZNS am Tiermodell
(2010)
Ginkgo biloba (Gb), eine der am besten untersuchten pharmazeutisch-medizinisch genutzten Pflanzen, wird heute in Form von Spezialextrakten im Sinne einer evidenzbasierten Phytopharmakatherapie eingesetzt. Grundlage hierfür sind die genaue Spezifikation der Zusammensetzung des Spezialextraktes in Bezug auf die wirksamkeitsbestimmenden Inhaltsstoffe, balstbare klinische Daten, das Erforschen des molekularen Wirkmechanismus‘ des Gesamtextraktes aber auch der Einzelbestandteile und die Pharmakokinetik im Targetgewebe. Heute werden im Sinne einer evidenzbasierten Phytopharmakatherapie lediglich Extrakte verwendet, die der Monographie der Komission E entsprechen (22 - 27% Flavonoide, 5 - 7% Terpenlaktone und weniger als 5 ppm Ginkgolsäuren). Der am besten klinisch und pharmakologisch untersuchte Gb-Spezialextrakt ist EGb 761® (Tebonin®), der im zentralen Fokus der vorliegenden Arbeit steht. Die im Jahr 2008 vom IQWiG veröffentlichte Metaanalyse zur Klinik von EGb 761® hat in äußerst detaillierter Form belastbare Daten zur Wirksamkeit dieses Extraktes beschrieben. Es kann festgehalten werden, dass ein Einsatz dieses Spezialextraktes im Rahmen der Therapie einer beginnenden Demenz zu befürworten ist. Basis des klinischen Einsatzes des EGb 761® sind in vitro und in vivo pharmakologische Untersuchungen. Es werden unterschiedliche Gesamtkonzepte zur Wirkung von EGb 761® bzw. Einzeleffekte der Inhaltsstoffe im ZNS diskutiert. Konsensfähig sind heute sicher die Mitochondrien-stabilisierende Wirkung der Terpenlaktone und ein antioxidativer Effekt der Flavonoide. Bb zeigt zusätzlich deutlich protektive Effekte in Bezug auf durch zerebrovaskuläre Ereignisse geschädigte Hirnareale. Darüber hinaus ist die Wirkung der Flavonoide auf die monoaminerge Neurotransmission aktueller Gegenstand der Forschung. Basis jeglicher pharmakologischen Betrachtung ist das pharmakokinetische Verhalten der wirksamen Inhaltsstoffe im Target-Gewebe. Nachdem die ZNS-Bioverfügbarkeit der Flavonoide nachgewiesen wurde, hat die vorliegende Arbeit das zentrale Ziel, die pharmakokinetische Charakteristik der Terpenlaktone aus Gb im ZNS zu untersuchen. Zur quantitativen Analyse der Terpenlaktone (GKA, GKB, GKC und Bb) in biologischen Matrices (Hirn-Homogenat, Plasma) und Hirn-Dialysat-Pufferlösung (aCSF-Puffer) wurde eine LC-MS-Analytik-Methode entwickelt und validiert. Unter Verwendung einer 250x4 mm, Multo High 100 RP18, 5 μm (CS-Chromatographie Service GmbH)-Säule und einer isokratischen Auftrennung mittels einer mobilen Phase bestehend aus 60% 0,1%-iger Ameisensäure und 40%-igem Methanol konnten alle vier genannten Terpenlaktone simultan innerhalb von 20 Minuten analysiert werden. Die beschriebene LC-MS(TOF)-Methode verfügt über eine ausreichende Sensitivität, um die Analyten im nanomolaren Bereich zu quantifizieren (z.B. LOQ Bb in aCSF-Puffer: 0,25 pg/μl; LOQ Bb in Hirnhomogenat: 1 ng/ml). Die Aufarbeitung der Plasma- bzw. Hirn-Homogenat-Proben erfolgte durch eine flüssig-flüssig-Extraktion mit Hilfe von Extrelut®-Säulen; die Hirn-Dialysat-Proben bedurften keiner Probenaufarbeitung. Mit Hilfe der beschriebenen Analytik-Methode war es möglich, GKA, GKB, GKC und Bb in Plasma und Hirnhomogenat von Ratten nach oraler Gabe von 600 mg/kg Körpergewicht EGb 761® bzw. einer vergleichbaren Menge der Reinsubstanzen zu bestimmen. Im Rahmen dieses Projektes wurde ein direkter Vergleich der erhalten Plasma-Konzentrationen nach Extrakt- bzw. Reinsubstanzgabe gezogen, wobei der Extrakt die höhere AUC (für GKA u. Bb) und daher bessere Bioverfügbarkeit aufwies. Es konnten in Plasma und Gehirngewebe sowohl GKA als auch GKB und Bb in nativer nicht metabolisierter Form nachgewiesen werden. GKC konnte weder in Plasma noch in Hirngewebe bestimmt werden, was die in der Literatur diskutierte These einer schnellen Metabolisierung (Methylierung) stärkt. Die Terpenlaktone sind im Plasma sehr schnell angeflutet und zeigten ein ebenfalls zügiges Abfallen, so dass 24 Stunden nach oraler Applikation keine Konzentrationen mehr zu detektieren waren. Bei der Untersuchung der Hirn-Gewebspiegel von GKA, GKB und Bb zeigten sich keine Unterschiede nach Gabe von Extrakt bzw. Reinsubstanz. Die Substanzen fluteten im Vergleich zum Plasma etwas verzögert an, fielen aber auch bis 24 Stunden nach Applikation wieder unter die Nachweisgrenze. Die Konzentrations-Zeit-Kurven ähnelten in ihrer Form stark denen aus Plasma, waren jedoch zeitlich nach rechts verschoben, so dass ausgeschlossen werden kann, dass es sich im Hirngewebe um Artefakt aus Restblut handelt. Wesentliches Resultat dieser Untersuchungen war, dass erstmalig nach oraler Gabe von EGb 761® gezeigt wurde, dass deutliche Gewebespiegel im Gehirn von Ratten zu erzielen sind und damit diese Substanzen im Target-Gewebe die postulierten pharmakologischen Wirkungen ausüben können. Aufbauend auf diesen Ergebnissen wurden mit Hilfe der Mikrodialyse-Technik und der bereits beschriebenen LC-MS-Analytik-Methode weitere pharmakokinetische Untersuchungen am Maus-Modell durchgeführt. Es konnte zunächst rein technisch im Rahmen von Wiederfindungsuntersuchungen gezeigt werden, dass die im Dialysat bestimmte Menge Bb ca. 6% der tatsächlich im Extrazellularraum des Maus-Hirns vorliegenden Bb-Konzentration entspricht. Weiterhin zeigten diese Versuche, dass Bb kaum an Plasma-Proteine bindet, da keine signifikanten Unterschiede bei der Dialyse von Bb aus Puffer, Blut oder Plasma zu sehen waren. In einem ersten Tierversuch an gesunden Mäusen konnten die pharmakokinetischen Charakteristika von Bb, die in der Fütterungsstudie an Ratten bestimmt wurden, reproduziert werden, obwohl es sich um einen völlig divergenten Versuchsaufbau, unterschiedliche Tierspezies und nicht um die gleichen Applikationsformen handelt. Diese Tatsache unterstreicht die Aussage beider Studien. Als zusätzliche Aussage ergibt sich aus dem Versuchsaufbau, dass Bb frei und biologisch aktiv im Extrazellularraum vorliegt und nicht z.B. in Membranen gebunden ist. Die Möglichkeit mittels Mikrodialyse und LC-MS-Technik Bb im Extrazellularraum definierter Hirnregionen nachzuweisen, erlaubte eine pharmakokinetische Charakterisierung von Bb in vom Schlaganfall geschädigten Hirngewebe. Es zeigte sich, dass bei Gabe von 10 mg/Kg Bb eine Stunde vor dem Schlaganfall die Bb-Konzentrationen zwar deutlich abfallen, aber dann relativ konstant bleiben, was durch einen fehlenden Abtransport durch die unterbrochene Blutversorgung zu erklären ist.
Die Verfügbarkeit synthetischer Oligonukleotide hat der Entwicklung einer Vielzahl molekularbiologischer, biochemischer und medizinischer Anwendungen den Weg geebnet. Und sind viele diese Anwendungen für sich genommen schon hochinteressant, so eröffnet die Kombination mehrerer Methoden oft noch ganz neue Möglichkeiten. In der vorliegenden Doktorarbeit ist es gelungen, die Technik der photolabilen Schützung auf die Anwendungen von siRNAs und molecular beacons zu übertragen und diesen damit die Option der orts- und zeitaufgelösten Aktivierung zu ermöglichen. Durch die Einführung eines Nukleotids mit 2-(2-nitrophenyl)propyl-geschützter Nukleobase in eine siRNA, konnte der katalytische Schritt der RNA-Interferenz, die mRNA-Spaltung, unterbunden werden. Hierzu wurde das photolabil modifizierte Nukleotid so in der siRNA positioniert, dass es gegenüber der mRNA-Schnittstelle bzw. in unmittelbarerer Nachbarschaft zu dieser lag. Dabei war das modifizierte Nukleotid selbst kein Ribonukleotid sondern ein Desoxynukleotid. Zuvor konnte gezeigt werden, dass die Einführung einzelner Desoxynukleotide in eine siRNA keinerlei Einfluss auf deren Aktivität hat. Als Modellsystem diente der RFP/eGFP-Reportergenassay, wobei die Plasmide mit der siRNA in die verwendeten HeLa-Zellen kotransfiziert wurden. Die verwendete siRNA regulierte dabei die eGFP-mRNA, die gemessene Fluoreszenz wurde auf die RFP-Fluoreszenz normiert. In der Studie gelang es, ein sauberes „An/Aus-Verhalten“ zu erzielen, das heißt, die modifizierte siRNA zeigte zunächst keinerlei Einfluss auf die eGFP-mRNA. Bestrahlte man diese siRNA jedoch für drei Minuten bei 366 nm, erzielte man eine Unterdrückung der eGFP-Expression, die der einer unmodifizierten siRNA entsprach. Dies funktionierte für vor der Transfektion bestrahlte siRNAs ebenso, wie für solche, die erst nach der Transfektion in der Zelle entschützt wurden. Vereinfachte Darstellung der lichtaktivierbaren RNA Interferenz. Links: solange die Photoschutzgruppe (rot) auf dem Führungsstrang sitzt wird das Substrat des RISC nicht geschnitten. Rechts: Bestrahlung mit UV-Licht entfernt die Photoschutzgruppe und aktiviert die RNAi-Maschinerie. Ein bis jetzt ungeklärtes und noch näher zu untersuchendes Phänomen ist die Stabilität der Modifikationen in der Zelle. Aus bisher nicht eindeutig zu benennender Ursache fand nach einer definierten Zeit eine Aktivierung der ausgeschalteten siRNA statt, ohne dass diese bestrahlt wurde. Versuche mit photolabil modifizierten Nukleotiden an anderen Positionen innerhalb der siRNA, sowie eine Fluoreszenz-Korrelationsspektroskopie-Studie mit fluoreszenzmarkierter siRNA und fluoreszenzmarkiertem RISC erlaubten es Rückschlüsse auf den Schritt der RNAi zu ziehen, der durch die Einführung der Basenmodifikation blockiert wird. Offenbar handelt es sich tatsächlich um den katalytischen Schritt der mRNA-Spaltung, ein Einbau der modifizierten siRNA in den RISC findet statt. Zudem zeigte die erfolgreiche Inaktivierung der für die FCS-Studie genutzten anti-TK siRNA, dass der Ansatz, die Modifikation im Bereich der Schnittstelle einzubauen, von der anti-eGFP siRNA auf andere siRNAs übertragbar ist. Im zweiten erfolgreichen Projekt gelang es, molecular beacons durch Einführung zahlreicher photolabiler Basenmodifikationen lichtaktivierbar zu machen. Hierzu wurde ein bereits beschriebener GAPDH-molecular beacon verwendet. Modifiziert man die Schleife dieses molecular beacon mit sieben photolabilen Basenschutzgruppen (NPP und NPE) so gelingt es die Bindung desselben an seine komplementäre Ziel-RNA komplett zu unterbinden, während ein GAPDH-beacon mit drei oder fünf Modifikationen noch in verringertem Maße bindungsfähig ist. Dieses Verhalten wurde sowohl mittels einfachen Auslesens der Fluoreszenzintensität, als auch anhand eines PA-Geles belegt. Eine große Herausforderung bei diesem Projekt stellte die Aufreinigung des hochmodifizierten molecular beacon dar, der neben Fluorophor und Quencher auch zahlreiche Photoschutzgruppen trägt. Diese gelang schließlich durch den Einsatz einer extra densely bond-RP-HPLC-Säule und wiederholter HPL-Chromatographie. Ebenfalls konnte der große Vorteil eines lichtaktivierbaren molecular beacon, die Möglichkeit der präzisen Ortsauflösung der Aktivierung, dargestellt werden. Hierzu wurde modellhaft die Ziel-RNA auf einer Objektträgeroberfläche immobilisiert. Die dann aufgetragene molecular beacon-Lösung zeigte zunächst keine Fluoreszenz. Diese trat erst nach Bestrahlung und auch nur begrenzt auf den wenige Quadratmikrometer großen Bestrahlungsbereich auf.
Die vorliegende Arbeit bietet zunächst einen weiteren Beweis für die Existenz des neutralen Heliumdimers. Darüber hinaus konnten zwei verschiedene Prozesse identifiziert werden, über die die Absorbtion eines Photons zur Ionisation beider Atome des Dimers über sehr große Abstände führen kann. Oberhalb einer Photonenenergie von 65,4 eV konnte ein ICD Prozess beobachtet werden, der über Photoionisation mit gleichzeitiger Anregung von einem der beiden Atome realisiert wird. Bei 77,86 eV konnte ICD über elektronisch angeregte Zustände bis n=6 nachgewiesen werden. In der KER-Verteilung konnten zudem Strukturen gefunden werden, die auf Vibrationsanregungen im Zwischenzustand des Dimer-Ions schließen lassen. Eine vollständig quantenmechanische Rechnung von Sisourat et al. konnte dies schließlich hervorragend bestätigen. Es konnte also ein direkter Blick auf die Vibrationswellenfunktionen des Systems erlangt werden. In anderen Systemen ist dies in der Regel nicht möglich, da sich alle Zustände üblicherweise zu einer strukturlosen Verteilung überlagern. Weiterhin konnte gezeigt werden, dass sich die Winkelverteilungen von ICD- und Photoelektronen in verschiedenen Bereichen des KER mitunter stark voneinander unterscheiden. Dies konnte auf die unterschiedliche Besetzung von verschiedenen Potentialkurven zurückgeführt werden. Unterhalb der Photonenenergieschwelle zur Anregung und Ionisation eines Heliumatoms konnte ein weiterer, zweistufiger Ionisationsmechanismus gefunden werden. Hier wird zunächst durch Photoionisation ein Elektron aus einem der beiden Atome im Dimer freigesetzt. Dieses Photoelektron kann nun am neutralen Atom gestreut werden und dabei ausreichend viel Energie übertragen, um dieses ebenfalls zu ionisieren. Es konnte gezeigt werden, dass der Prozess einer Abhängigkeit von der Polarisation der Synchrotronstrahlung unterliegt, die man für Photoionisation erwarten würde. Die Energie- und Winkelverteilungen der Elektronen konnten daher mit vorangegangenen Elektronenstoß-Experimenten verglichen werden. Die gute Übereinstimmung mit diesen Daten rechtfertigt eine anschauliche Sichtweise des Prozesses als Analogon zum klassischen Billiard-Stoß. Der Two-Step-Prozess wurde bisher zwar schon in vielen Systemen als theoretisches Modell zur Doppelionisation beschrieben, allerdings konnten die einzelnen Unterprozesse bisher nicht gesondert gemessen werden. Die großen Abstände im Heliumdimer ermöglichen erstmals eine deutliche Trennung in Photoionisation an einem Atom und Elektronenstoß (e,2e) am Nachbaratom. Der Two-Step-Prozess konnte außerdem dazu verwendet werden, die ungewöhnliche Grundzustandswellenfunktion des Heliumdimers zu experimentell zu bestätigen. Eine Analyse des gemessenen KER konnte dabei deutliche Abweichungen zu einer klassischen Theorie aufzeigen. Erst eine vollständig quantenmechanische Rechnung des Übergangs von Sisourat et al. konnte die Messdaten beschreiben.
Eine Autoimmunreaktion impliziert Verlust der Autotoleranz und ermöglicht Immunreaktionen gegen körpereigene Antigene. Bei autoimmuner Erkrankung der Schilddrüse Typ M. Basedow führt die Aktivierung von T-Lymphozyten zur vorübergehenden und sequentiellen Expression von spezifischen Molekülen auf der Zelloberfläche, z.B. CD25 oder HLA-DR. Dass die CD4+CD25+-, CD8+CD25+-Zellen sowie HLA-DR-positive T-Zellen eine wesentliche Rolle in der Autoimmunität der Schilddrüse haben, ist erwiesen. Dennoch sind die genauen pathophysiologischen Mechanismen ungeklärt. Zusätzlich haben mehrere Studien eine Erhöhung der B-Zellen, insbesondere die Erhöhung der Anzahl von CD19+CD25+-Zellen bei Ophtalmopathie, sowie eine Erhöhung der zytotoxischen Aktivität der NK-Zellen beschrieben. Ziel der vorliegenden Arbeit war es, mit Hilfe der Durchflusszytometrie die Veränderungen in der Expression von Aktivierungsmarkern CD25, HLA-DR und CD94 auf peripheren und intrathyreoidalen Lymphozytensubpopulationen bei M. Basedow und Struma zu bestimmen. Im ersten Teil der Arbeit wurden periphere Lymphozytensubpopulationen von M. Basedow, Struma, und Kontrollgruppe untereinander verglichen. Die Analyse von peripheren T-Helferzellen CD3+CD4+CD25- zeigte sowohl bei M. Basedow- als auch bei Struma-Patienten eine signifikant niedrigere Anzahl im Vergleich zur Kontrolle, während die peripheren CD3+CD4+CD25+-Zellen signifikant höhere Werte gegenüber der Kontrollgruppe aufwiesen. Im Rahmen der Untersuchung traten die peripheren aktivierten B-Zellen (CD45+CD19+CD25+) sowie peripheren NK-Zellen (CD45+CD56+CD94-, CD45+CD56+CD94+, CD45+CD8-CD56+, CD45+CD3-CD56+ und NK-T-Zellen (CD45+CD8+CD56+, CD45+CD3+CD56+) bei Struma in eine signifikant erhöhten Anzahl im Vergleich zur Kontrolle auf. Die nicht aktivierten B-Zellen (CD45+CD19+CD25-) zeigten bei Patienten mit M. Basedow eine signifikante Erhöhung der Anzahl verglichen mit der Strumagruppe. Diese Ergebnisse zeigen deutliche Unterschiede in den Aktivierungsmustern von M. Basedow und Struma gegenüber der Kontrolle. Somit kann man bei beiden Erkrankungen über eine immunologische Reaktion in der Peripherie sprechen, die sich deutlich von der bei gesunden unterscheidet. Dennoch war in der Peripherie bei M. Basedow-Patienten die Aktivierung von B-Zellen, wahrscheinlich autoimmun bedingt, beeinträchtigt. Im zweiten Teil der Arbeit wurden intrathyreoidale Lymphozytensubpopulationen von M. Basedow- und Struma-Patienten untereinander verglichen. Die Anzahl der intrathyreoidalen CD3+CD4+CD25--Zellen von M. Basedow war signifikant höher im Vergleich zu Struma, andererseits waren die Werte der CD45+CD19+CD25+-Zellen signifikant niedriger. Zusätzlich wurde bei M. Basedow-Patienten eine Analyse der Verhältnisse zwischen aktivierten und nicht aktivierten intrathyreoidalen Lymphozytensubpopulationen durchgeführt. Der Anteil nicht aktivierter T-Helferzellen (CD4+CD25-), zytotoxischer Zellen (CD8+CD25-) und B-Zellen (CD19+CD25-) war höher als der Anteil aktivierter T-Helferzellen (CD4+CD25+), zytotoxischen Zellen (CD8+CD25+) und B-Zellen (CD19+CD25+). Die hier vorgestellten Ergebnisse legen nahe, dass die Fähigkeit der CD4+CD25+-Zellen, die Proliferation von CD4+CD25--Zellen zu unterdrücken, bei M. Basedow-Patienten beeinträchtig ist. Dies führt bei diesen Patienten zu einer Zunahme der CD4+CD25--Subpopulation. Die Änderung der Verhältnisse von intrathyreoidalen aktivierten zu nicht aktivierten T-Helferzellen scheint hierbei mit der Entwicklung von M. Basedow assoziiert zu sein. Im dritten Teil der Arbeit wurden periphere und intrathyreoidale Lymphozyten von M. Basedow gegenübergestellt. Die Anzahl von intrathyreoidalen aktivierten zytotoxischen Zellen von M. Basedow mit dem Phänotyp CD3+CD8+CD25+ war erhöht im Vergleich zur Peripherie. Derselbe Vergleich wurde auch bei Struma durchgeführt. Dabei zeigten die intrathyreoidalen CD3+CD4+HLA-DR+- CD3+CD4+CD25+- CD3+CD8+CD25+- und CD3+CD8+HLA-DR+-Zellen sowie CD45+CD56+CD94--NK-Zellen höhere Werte als Periphere. Somit konnten wir zeigen, dass bei M. Basedow die Aktivierung von CD3+CD4+HLA-DR+- CD3+CD4+CD25+- und CD3+CD8+HLA-DR+-Zellen in der Schilddrüse unterdrückt ist. Dies könnte als Unterscheidungsmerkmal zwischen M. Basedow und Struma wichtig sein. Im vierten Teil der Arbeit wurden die peripheren und intrathyreoidalen Lymphozyten nach der Kultivierung mit Thyreozyten verglichen. Die Kultivierung von peripheren CD3+CD4+HLA-DR--Zellen mit Thyreozyten von Patienten mit M. Basedow bzw. Struma zeigte eine Vermehrung dieser Zellen im Vergleich zur Kultivierung ohne Thyreozyten. Die Struma-Patienten zeigten jedoch bei Kultivierung mit Thyreozyten höhere Anzahlen von intrathyreoidalen aktivierten T-Helferzellen (CD3+CD4+HLA-DR+) und zytotoxischen Zellen (CD3+CD8+HLA-DR+), als kultiviert ohne Thyreozyten. Aufgrund der Ergebnisse in diesem Teil der Arbeit kann angenommen werden, dass ein hemmender Einfluss von Thyreozyten auf intrathyreoidalen CD3+CD4+HLA-DR+- und CD3+CD8+HLA-DR+ -Zellen bei M. Basedow vorhanden ist.
Prognostische Bedeutung von "electrical storm" und seinen verschiedenen Formen bei Patienten mit ICD
(2010)
Ziel: Das Ziel der vorliegenden Arbeit war es, die Unterschiede bezüglich Mortalität, demographischen und klinischen Parametern, zwischen „electrical storm) (ES) und „nicht electrical storm“ (NES) Patienten sowie zwischen den Gruppen mit verschiedenen Formen des ES aufzuzeigen, um Aussagen über die prognostische Bedeutung von ES und dessen verschiedene Formen und den Einfluss der demographischen und klinischen Parameter auf die Entstehung von ES machen zu können. Hintergrund: Es existieren nur ungenügende Daten bezüglich der Entstehung und Prognose von ES bei ICD Patienten. Die prognostische Bedeutung der bei ES auftretenden Herzfrequenzen wurde bislang nur von einer Arbeitsgruppe untersucht und bedarf weiterer Studien. Methoden: In der Studie wurden retrospektiv die Daten von 783 konsekutiven Patienten, denen von Dezember 1989 bis September 2005 in der JWG Universitätsklinik Frankfurt am Main ein ICD implantiert wurde, ausgewertet. Die Nachsorgedauer betrug 40,7 ± 30 Monate. ES wurde als das drei oder mehrmalige Auftreten von anhaltende VTs / VFs innerhalb von 24 h, die mit ATP oder Schock therapiert wurden definiert. In der Studie wurden erstmals ES Patienten mit immer gleichen HF während eines ES mit denen mit unterschiedlichen HF verglichen. Weiterhin wurde die Gruppe der Patienten mit gleichen HF in die Untergruppen HF 100-200/min und > 200/min eingeteilt und ein Vergleich durchgeführt. Ergebnisse: Von den 783 Patienten erlitten 144 (18,39%) während des Beobachtungszeitraumes einen oder mehrere ES. Männliches Geschlecht (p = 0,004), eine sekundäre Indikation zur ICD Implantation (p = 0,000) sowie die fehlende Einnahme von Aldosteron-antagonisten (p = 0,026) zeigten sich in der multivariaten Analyse als unabhängige Faktoren, die die Entstehung von ES begünstigen. Es verstarben höchst signifikant häufiger Patienten der ES Gruppe als Patienten der NES Gruppe (38,88% vs. 21,75%; p = 0,000116). Die Cox Regression zeigte jedoch, dass die Tatsache des Erleidens eines ES keinen unabhängigen Faktor für das Überleben darstellt. Beim Vergleich der Patienten mit unterschiedlichen und gleichen Herzfrequenzen zeigte sich, dass Patienten mit unterschiedlichen Herzfrequenzen häufiger versterben als Patienten mit gleichen Herzfrequenzen (41,18% vs. 27,50%). Die Ergebnisse erlangten jedoch keine Signifikanz. Beim Vergleich der Patienten der unterschiedlichen HF Gruppen zeigte sich, dass signifikant mehr Patienten mit einer HF >200/min eine LVEF unter 30% haben (84,62% vs. 44,44%, p = 0,038310). Es sind mehr Patienten mit einer HF >200/min als mit einer HF von 100-200/min verstorben (38,46% vs. 22,22%), die Ergebnisse erlangten jedoch keine Signifikanz. Schlussfolgerung: ICD Patienten mit ES versterben signifikant häufiger als ICD Patienten, die keinen ES erleiden. ES ist jedoch kein unabhängiger Faktor für das Überleben von ICD Patienten. Zum ersten Mal wurden ES Patienten eingeteilt in verschiedene HF Gruppen verglichen, und es ergaben sich deutliche prozentuale Unterschiede. Um jedoch statistisch signifikante Aussagen über die Auswirkung der verschiedenen HF bei ICD Patienten mit ES machen zu können, bedarf es Studien mit wesentlich höheren Studienpopulationen. Aus den Studienergebnissen des Vergleiches der Baselinedaten lassen sich Risikofaktoren sowie protektive Faktoren, die das Auftreten eines ES beeinflussen, ableiten, wodurch in Zukunft Risikopatienten identifiziert werden und entsprechende Vorsorgemaßnahmen eingeleitet werden können.
Protein-Protein Interaktionen der NADH: Ubichinon-Oxidoreduktase (Komplex I) aus Yarrowia lipolytica
(2010)
Protein-Protein Interaktionen der NADH:Ubichinon-Oxidoreduktase (Kolmplex I) aus Y. lipolytica In der inneren Mitochondrienmembran sind die Atmungskettenkomplexe I bis IV und die ATP-Synthase lokalisiert. Parallel zum Elektronentransport werden Protonen von der NADH:Ubichinon-Oxidoreduktase (Komplex I), der bihydrochinon:Cytochrom c-Oxidoreduktase (Komplex III) und der Cytochrom c-Oxidase (Komplex IV) über die Membran in den Intermembranraum gepumpt. Der resultierende chemiosmotische Gradient wird von der ATPase verwendet um ATP zu generieren. Die NADH:Ubichinon- xidoreduktase ist der Startpunkt des Elektronentransfers. Der Komplex I wurde in verschiedenen Organismen in Interaktion mit Komplex III und IV beobachtet. Diese funktionellen Einheiten werden als Respirasomen oder Superkomplexe bezeichnet (Pfeiffer und Schägger, 2000). Der Komplex I in prokaryotischen Zellen stellt die kleinstmögliche Variante dieses Enzyms dar. Da er in der Lage ist, alle bioenergetischen Reaktionen durchzuführen, werden die beteiligten 14 Untereinheiten als zentrale Untereinheiten bezeichnet (Fearnley et al. 1992). In den Eukaryoten findet sich ein Enzym, das je nach Organismus bis zu 31 weitere, sogenannte akzessorische Untereinheiten aufweist. Da diese Untereinheiten keine Homologie mit bakteriellen Proteinen aufweisen, wird davon ausgegangen, dass sie eher eine Funktion im Assemblierungsprozess ausüben als am Elektronentransfer oder der Translokation der Protonen beteiligt zu sein. Ziel dieser Arbeit war es daher mögliche Interaktionspartner des Komplex I oder weitere Untereinheiten zu finden. Für die Detektion möglicher Interakteure sollten neben einem Two-Hybrid-Screen noch weitere Methoden etabliert werden. Als Modellsystem wurde Yarrowia lipolytica verwendet. Unter Verwendung des BacterioMatchII® Systems konnte die mitochondriale Malat-Dehydrogenase, ein Enzym des Citrat-Zyklus, als ein Interaktionspartner des Komplex I gefunden werden. Bei der Reaktion entsteht NADH, das Energieäquivalent, welches dem Komplex I Elektronen liefert. Im Kontext des Substratchannelings deutet die Interaktion der mitochondrialen Malat- ehydrogenase auf hochgeordnete Stukturen im Matrixraum hin, die einen Transfermechanismus oder eine zielgerichtete Diffusion des NADH gewährleisten könnten. Durch die Kombination der Methoden Immunpräzipitation, Gelelektrophorese und MALDI-MS konnten erstmals Hinweise auf Superkomplexe in Y. lipolytica gefunden werden, was dann durch mehrdimensionale Gelelektrophorese bestätigt werden konnte. In dieser Arbeit konnten die Superkomplexe I1III2 ,I1III2IV1 und I1III2IV2 identifiziert werden. Ein vollständiges Respirasom mit einer Stöchiometrie von I1III2IV4 konnte nicht gezeigt werden. Desweiteren konnte die Anwesenheit eines Komplex I-Dimers nachgewiesen werden. In dem bisher postulierten Modell der respiratory strings werden die Superkomplexe durch tetramere Komplex IV-Module zu hochmolekularen Strukturen verknüpft (Wittig et al., 2006). Die detektierten Komplex I-Dimere lassen vermuten, dass sie zusammen mit dem tetrameren Komplex IV als Linker-Moleküle die Superkomplexe zu einem zweidimensionalen respiratory patch verbinden. Zudem konnte eine neue Untereinheit des Komplex I, genannt NEBM, durch das Zusammenspiel von LILBID- und MALDI-Massenspektrometrie und Gelelektophorese identifiziert werden. Durch MALDI-Massenspektrometrie wurde diese Untereinheit de novo sequenziert. Die Charakteristik des identifizierten Proteins entspricht den sogenannten single-transmembrane domain Untereinheiten (Brandt et al., 2005; Brandt 2006), die eventuell eine Funktion in der Assemblierung des Komplex I einnehmen könnten. Weder bei den Messungen der NADH:HAR- noch der dNADH:DBQ-Aktivität zeigte der Deletionsstamm enzymatisch aktiven Komplex I. Weder in blau-nativer Elektrophorese noch in silbergefärbten 2D SDS-Gelen war ein Komplex I noch ein Subkomplex sichtbar und auch In-Gel-Aktivitäts-Tests verliefen für die Detektion von Komplex I im Deletionsstamm negativ. Erst durch eine Western Blot Analyse konnte ein Subkomplex mit einer Größe von ca. 300kDa detektiert werden. Unter Berücksichtigung der für den Rinderkomplex vorgeschlagenen Einteilung des Komplex I in die Subkomplexe Iα und Iβ (Brandt et al. 2006) könnte der detektierte Subkomplex Iβ zugeordnet werden, da er zwei Untereinheiten beinhaltet, die diesem Komplex zuzuordnen sind. Die NEBM Untereinheit könnte also an der Assemblierung der NADH:Ubichinon-Oxidoreduktase beteiligt sein. Erstmals konnten Superkomplexe in Y. lipolytica Mitochondrien nachgewiesen werden. Die Identifizierung der neuen NEBM Untereinheit vervollständigt die Kenntnisse über die Untereinheitenzusammensetzung. Das Wechselspiel mit anderen Proteinen und die Zusammensetzung des Komplexes können für die Strukturaufklärung und zur Analyse des Reaktionsmechanismus wichtig sein. Somit leisten diese Ergebnisse einen wichtigen Beitrag zur Charakterisierung der NADH:Ubichinon-Oxidoreduktase aus Y. lipolytica.
Frühere Studien haben gezeigt, dass während des hämorrhagischen Schocks freie Radikale gebildet werden. Diese reaktiven Sauerstoffverbindungen und reaktiven Stickstoffverbindungen spielen eine ursächliche Rolle beim Multiorganversagen. ZIEL: Es sollte die Hypothese überprüft werden, ob die enterale Applikation eines polyphenolhaltigen Extraktes des chinesischen Grünen Tees (Camellia sinensis/GTE) die Bildung freier Radikale verringert, die Organschäden und die Mortalität bei Ratten nach hämorrhagischen Schock und Reperfusion beeinflusst. METHODE: Gruppen von weiblichen Sprague Dawley Ratten wurden entweder mit 100 mg GTE/kg Körpergewicht oder Placebo zwei Stunden vor dem hämorrhagischen Schock gavagiert. Die Hypothese wurde anhand zweier Schockmodelle überprüft: 1.) Nicht-Überlebensmodell: Entnahme von Blut bis ein mittlerer arterieller Blutdruck von 40 mmHg erreicht war, gefolgt von zunehmender Entnahme über eine Stunde bis dann ein mittlerer arterieller Druck von 28 mmHg erreicht war (schwerer hämorrhagischer Schock), 2.) Überlebensmodell: Entnahme von Blut bis ein mittlerer arterieller Blutdruck von 40 mmHg erreicht war, welcher dann für eine Stunde konstant gehalten wurde (moderater hämorrhagischer Schock). Alle Ratten wurden dann über eine Stunde mit 60% des bis dahin entnommenen Blutes plus das doppelte Volumen hiervon als Ringerlaktat- Lösung reperfundiert. 10 Minuten und zwei Stunden nach Ende der Reperfusion wurden Blutproben entnommen. 18 Stunden nach Reperfusion wurden die Lebern zur Zytokinmessung und Bestimmung von 3-Nitrotyrosin mittels ELISA sowie zur immunhistochemischen Darstellung von 4-Hydroxynonenal entnommen. ERGEBNISSE: Im schweren hämorrhagischen Schock stieg die Überlebensrate im Beobachtungszeitraum von 18 Stunden von 20% (2 von 10) bei placebobehandelten Ratten und auf 70% (7 von 10) bei mit GTE behandelten Ratten (p < 0.02). Im moderaten hämorrhagischen Schock war die Überlebensrate höher (80%) und es bestand kein Unterschied zwischen mit GTE und placebobehandelten Gruppen. Im moderaten hämorrhagischen Schock stieg jeweils die Alaninaminotransferase (ALT) 10 Minuten und zwei Stunden nach Reperfusion auf 345 ± 12 und 545 ± 13 IU/l. Die Behandlung mit GTE verringerte die ALT-Freisetzung auf 153 ± 9 und 252 ± 12 IU/l 10 Minuten und zwei Stunden nach Reperfusion (p < 0,01). TNF-α im Lebergewebe war in placebobehandelten Ratten höher (5,76 ± 0,62 pg/mg) im Vergleich zu GTE gavagierten Ratten (4,02 ± 0,26 pg/mg, p < 0,05). IL-1β im Lebergewebe war ebenfalls bei placebobehandelten Ratten höher (0,8 ± 0,18 pg/mg) im Vergleich zu GTE behandelten Ratten (0,37 ± 0,07 pg/mg, p < 0,05). Analoges galt für IL-6 (6,93 ± 0,48 vs. 5,15 ± 0,58 pg/mg, p < 0,04). Auch 3-Nitrotyrosin war in den Lebergeweben der placebobehandelten Ratten höher (1,88 ± 0,51 pg/mg) als in den GTE behandelten Ratten (0,63 ± 0,23 pg/mg, p < 0,04). Immunhistochemische Färbung von Lebergewebe, welches 18 Stunden nach Reperfusion zur Darstellung von 4-Hydroxynonenal entnommen wurde und welches als Maß für die Lipidperoxidation gilt, sank von 4,81 ± 0,99 % in placebobehandelten Ratten auf 1,46 ± 0,42 % in GTE behandelten Ratten (p < 0,02). SCHLUSSFOLGERUNG: Enterale Applikation von GTE Polyphenolen erscheint im hämorrhagischen Schock und Reperfusion von Vorteil.
Die kongenitale HCMV-Infektion ist der wichtigste Auslöser geistiger Retardierung viraler Genese und ist für die meisten neurosensorischen Hörstörungen nicht genetischen Ursprunges verantwortlich. Die Entwicklung neuer Strategien zur Prävention der HCMV-Infektion bei Neugeborenen ist also von höchster Dringlichkeit. Die Einführung von universellen Screeningprogrammen bei Neugeborenen könnte die frühzeitige Erkennung einer Infektion und somit einen frühen therapeutischen Einsatz ermöglichen. Um dies in die Praxis umsetzen zu können, wird jedoch eine Vereinfachung der Probengewinnung und die Entwicklung einer schnellen und sensitiven Nachweismethode benötigt. Die Anwendbarkeit von verschiedenen im Handel für DNA-Analysen angebotenen Filterpapieren zur Sammlung von Urinproben für die HCMV-Diagnostik mittels PCR wurde untersucht und mit Referenzmethoden verglichen. Es wurden zwei mit Reagenzien behandelten Papiere, das Indicating FTA® Classic Card (Ind FTA Filterpapier) und das FTA® Elute (FTA Elute Filterpapier) und ein unbeschichtetes Papier, das 903® Specimen Collection Paper (903-Filterpapier) eingesetzt. Insgesamt waren alle Papiere leicht einzusetzen, gut verträglich und die Gewinnung von Proben gestaltete sich problemlos. Dilutionsreihen aus Zellkulturüberstand aus einer mit dem HCMV-Laborstamm AD169 infizierten Fibroblastenkultur wurden zur Sensitivitätsbestimmung der Methode eingesetzt. Während bei der Anwendung der Indicating FTA® Classic Cards die Nachweisgrenze der Methode bei 4.000 Kopien/ml lag, wurden beim FTA® Elute- und 903® Specimen Collection-Paper noch Proben mit 400 Kopien/ml erfasst. Ferner wurden 70 klinische Proben mittels Ind. FTA-Papier getestet und 10 mittels FTA Elute- und 903-Filterpapier. Die Sensitivität der Methode betrug im Vergleich zum "Shell Vial Assay" 43,2% beim Einsatz des Ind. FTA-, 60% beim 903- und 70% beim FTA Elute-Filterpapiers. Im Vergleich zur PCR aus mit Qiagen isoliertem Urin erreichte die Methode eine Sensitivität von jeweils 58,3% mit Ind. FTA-, 50% mit dem 903-, und 83,3% mit FTA Elute-Filterpapier. Eine Korrelation zwischen Viruslast in der Filterpapier-Probe und in der mit Qiagen isolierten Urinprobe bestand nur beim FTA Elute Filterpapier. Der Nachweis von HCMV-DNA aus auf FTA Elute-Filterpapier getrockneten Urinproben scheint ein vielversprechender Ansatz in der HCMV-Diagnostik zu sein. Um diese Methode für epidemiologische und/oder diagnostische Zwecke empfehlen zu können, müssten noch umfangreichere klinische Studien durchgeführt werden.
Nanopartikuläre Arzneistoffsysteme sind ein viel versprechender Ansatz die speziellen Anforderungen, die an eine Arzneiform gestellt werden, zu erfüllen. Mit ihnen scheint das lang verfolgte Ziel der Pharmaforschung, das gezielte Transportieren ("Drug-Targeting") und das kontrollierte Freisetzen des Arzneistoffs am Wirkort ("Controlled Release") und damit das Minimieren unerwünschter Nebenwirkungen, in greifbare Nähe zu rücken. In der vorliegenden Arbeit konnte durch verschiedene Versuchsansätze in der präklinischen Testung der gezielte Wirkstofftransport zielgerichtet-modifizierter Nanopartikel (NP) auf humanem Serumalbumin (HSA)-Basis sowohl für das spezifische Tumor-Targeting als auch für die Überwindung der Blut-Hirn-Schranke (BHS) gezeigt werden. Die NP für das spezifische Tumor-Targeting waren mit dem Zytostatikum Doxorubicin beladen und mit dem tumorspezifischen Liganden Trastuzumab für ein Mammakarzinom-Zellen-Targeting oder DI17E6 für ein Melanom-Zellen-Targeting modifiziert. Ihre zielgerichtete Funktionalität konnte an verschiedenen Target-exprimierenden-Zelllinien gezeigt werden. Dabei konnte ihre spezifische zelluläre Bindung, Aufnahme und subzellulären Verteilung verifiziert werden. Die Ligand-modifizierten NP wurden bei diesen Untersuchungen spezifisch in die Zielzellen aufgenommen, während die unmodifizierten Kontroll-Partikel unspezifisch an der Zellmembran klebten. Die Freisetzung des Doxorubicins in einer biologisch aktiven Form konnte anhand entsprechender Zellviabilitäts-Assays gezeigt werden. Des Weiteren konnte gezeigt werden, dass der nanopartikulär transportierte Wirkstoff über den Rezeptor-internalisierenden Aufnahmeweg nicht in den Endosomen oder Lysosomen akkumulierte und damit inaktiv war, sondern dass er in wirksamer Form freigesetzt wurde. Als Besonderheit wurde mit DI17E6 für das spezifische Melanom-Zellen-Targeting ein Antikörper als ziel-orientierter Ligand eingesetzt, der zusätzliche anti-tumorale Eigenschaften hat, die bei der Ankopplung an die NP-Oberfläche erhalten werden sollten. Durch speziell entwickelte in vitro Assays, die auf diese Eigenschaften abzielten, konnte der Erhalt der biologischen Wirksamkeit des Antikörpers bestätigt werden. Mit derartigen nanopartikulären Formulierungen, basierend auf biologisch abbau¬barem HSA, modifiziert mit entsprechenden zielgerichteten Liganden und anti-tumoralen Wirkstoffen, sollte aufgrund der hier gezeigten präklinischen Daten eine spezifische Tumortherapie möglich sein. Zum Überwinden der BHS wurden NP getestet, die mit Apolipoprotein E (ApoE) modifiziert waren. Dabei handelte es sich zum einen um leere NP für Aufnahmemechanismus-Studien und zum anderen um Obidoxim-beladene NP für Transportstudien. Bei Obidoxim handelt es sich um einen Vertreter der Stoffklasse der Oxime. Diese werden als Antidote bei Organophosphat (OP)-Vergiftungen eingesetzt. Oxime können die nach einer OP-Vergiftung inhibierte lebensnotwendige Acetylcholinesterase (AChE) reaktivieren. Da Oxime die BHS aber kaum überwinden können, wird die in den zentralnervösen Kompartimenten inhibierte AChE nicht in therapeutisch ausreichendem Maß erreicht. Daher sollte beispielhaft Obidoxim nanopartikulär-vermittelt über die BHS transportiert werden. Für beide Formulierungen konnte die spezifische zelluläre Bindung, Aufnahme und die subzelluläre Verteilung sowie ihre für ein BHS-Targeting kompatiblen, untoxischen Eigenschaften gezeigt werden. Mit den ApoE-modifizierten unbeladenen NP konnte durch verschiedene Koinkubations- und Hemmexperimente eindeutig die Beteiligung der "Low Density Lipoprotein" (LDL)-Rezeptor-Familie, und besonders des "Low Density Lipoprotein Receptor Related Protein" (LRP), bei der spezifischen ApoE-vermittelten NP-Aufnahme gezeigt werden. Dabei ließ sich die NP-Aufnahme auf zwei Wegen hemmen. Zum einen konnte von der zellulären Seite aus der beteiligte Aufnahme-Rezeptors mit dem "Receptor Associated Protein" gehemmt werden, wodurch eine spezifische ApoE-vermittelte NP-Aufnahme über eine Rezeptor-Bindung verhindert wurde. Zum anderen konnte aber auch, durch Blockade des ApoE auf der Partikeloberfläche mittels löslicher Fragmente des LRP, die ApoE-vermittelte NP-Aufnahme von nanopartikulärer Seite gehemmt werden. Durch die Kenntnis des Aufnahmemechanismus der nanopartikulären Formulierungen sollte es für zukünftige Entwicklungen im breiten Feld der BHS-Forschung möglich sein, sehr spezifische und effektivere Carrier maßzuschneidern. Zu Untersuchungen des Wirkstofftransports wurden frisch isolierte porcine Gehirnkapillarendothel-Zellen im Transwell-System als adäquates in vitro BHS-Modell etabliert und eingesetzt. Für den Nachweis des tatsächlichen Obidoxim-Transports wurde ein biologischer Assay entwickelt, der gemäß der therapeutischen Funktion von Oximen nach OP-Vergiftungen auf die Reaktivierung OP-vergifteter AChE abzielte. Es konnte gezeigt werden, dass nanopartikuläre Formulierungen tatsächlich einen verbesserten Transport von Obidoximen gegenüber freiem Obidoxim in einem in vitro BHS-Modell vermitteln. Diese nanopartikulären Transportsysteme stellen daher ein bisher einzigartiges, viel versprechendes Hilfsmittel zum Transport von Oximen über die BHS dar. Durch die in dieser Arbeit dargestellten Untersuchungen konnte insgesamt gezeigt werden, dass NP auf HSA-Basis für einen zielgerichteten Wirkstofftransport geeignet sind und aufgrund ihrer biokompatiblen, bioabbaubaren Eigenschaften einen viel versprechenden Ansatz für die zukünftige Pharmaforschung darstellen.
Es wurden mit phys. Verfahren hergestellte 200 und 500 nm dicke Niobfilme auf oxidiertem Si thermischen Kurzzeitprozessen (RTP) unterzogen, um Oxynitride zu synthetisieren. Die Filme wurden mit verschiedenen Methoden untersucht, um einen Überblick über die entstandenen Produkte und ihre Position im Film zu erlangen. Die Reaktionen wurden in N2 oder NH3 zur Nitridierung mit anschließender Oxidation in O2 durchgeführt. Um eine mögliche direkte Einstufensynthese von Oxynitriden des Niobs zu finden, wurde N2O eingesetzt. Der einfachste Ansatz zur Präparation von Oxynitriden bestand in der Verwendung des N2 und NH3, mit denen die Metallfilme zwischen 600 und 1200 °C umgesetzt wurden. Die Nitridierung mit N2 verlief von der Bildung einer festen Stickstofflösung in Niob bei tiefen Temperaturen über Nb2N zwischen 700 und 1000 °C bis zum Nb4N3 oberhalb 1000 °C. Aus dem Substrat diffundierte Sauerstoff aus, der am Interface Nb/SiO2 zur Bildung einer Oxidzone führte. Der O-Gehalt der Oxide stieg mit steigender Reaktionstemp. Unterhalb 1000 °C wurde NbO gefunden, oberhalb 1000 °C bildete sich NbO2. Eine TEM-Untersuchung gekoppelt mit EEL-Spektrometrie ergab Hinweise auf die Bildung einzelner stickstoffreicher NbOxNy-Kristallite im Bulk der mit N2 umgesetzten Filme. Auch die Nitridierung mit NH3 ergab eine Abhängigkeit des N-Gehaltes der Produkte von der Rkt.-Temperatur. Es erfolgte die Bildung der festen Lösung und Nb2N bei tiefen und mittleren Temperaturen. Ab 900 °C bildete sich NbN, oberhalb 1100 °C wurde vermutlich Nb4N5 detektiert. Im Gegensatz zur Umsetzung mit N2 ergaben genauere Untersuchungen der in NH3 nitridierten Filme keine Hinweise auf die Bildung von Oxynitriden. Die Erstellung von Tiefenprofilen zeigte, dass sich Nitridphasen mit höchstem N-Gehalt an der Oberfläche befanden und der Anteil des Stickstoffs in den Produkten mit zunehmender Tiefe abnahm. Mit Oxiden verhielt es sich umgekehrt: Sobald höhere Oxide gebildet wurden, befanden sie sich am Interface, wo die Sauerstoffkonzentration am höchsten ist. Oxide mit niedrigerem O-Gehalt wurden in der Filmmitte gefunden, wo der Sauerstoff durch die gebildeten Nitride an der Diffusion in Richtung Filmoberfläche gehindert wurde. Die 200-nm-Filme waren formal reaktiver als die 500-nm-Filme. Sie bildeten bereits bei tieferen Temperaturen Phasen mit höherem N- oder O-Gehalt, wofür das geringere zur Verfügung stehende Volumen ursächlich ist. Die Reinheit der Filme führte zu Unterschieden in der Reaktivität: Gesputterte Filme waren reiner als aufgedampfte Filme, die auf Grund der Einlagerung einer geringen Sauerstoffmenge während der Präparation passiviert waren. Dadurch wurde die Diffusion des Stickstoffs eingeschränkt zur Bildung abweichender Phasen zwischen aufgedampften und gesputterten Filmen. Eine Variante der Nitridierung in N2 bzw. NH3 bestand in der Verwendung von O2 als Kühlgas. Die Zugabe des O2 wurde bei unterschiedlichen Temperaturen untersucht. Statt der Einlagerung von Sauerstoff in das Oberflächennitrid unter Oxynitridbildung kam es zur Bildung einer oxidischen Deckschicht. Die Bildung der Schicht erforderte eine Zugabetemperatur höher als 700 °C, bei tieferen Temperaturen war der Film durch das bereits gebildete Nitrid soweit passiviert, dass keine chemische Veränderung stattfand. Die im Nitridierungsschritt gebildeten Produkte wurden als Auswirkung des sog. Schneepflugeffektes unter Kompression in tiefere Filmregionen verschoben. Dies führte zur Bildung von Produkten höherer Stöchiometrie (Nb2N zu NbN oder NbO zu NbO2). Der Einsatz von Lachgas, der zur Einlagerung von N2O-Einheiten in den Metallfilm führen sollte, verlief ergebnislos. Bei Prozesstemperaturen unterhalb 450 °C wurde lediglich die Bildung einer festen Lösung von Sauerstoff im Niob nachgewiesen. Oberhalb 450 °C zersetzte sich N2O unter O-Bildung wodurch der Film oxidiert wurde. Die Umsetzung nitridierter Filme mit N2O und auch dessen Verwendung als Kühlgas brachte keine Veränderung. Die Oberflächennitride waren stabil gegenüber dem N2O. Die Nitridierung der Filme im N2-Strom wurde durch die stoßweise Zugabe von O2 bzw. N2O nach definierten Zeiten variiert. Die Filme bilden nach kurzen Nitridierungszeiten von maximal 20 s gefolgt von einem 10-sek. Sauerstoffstoß eine komplizierte Filmstruktur aus, wie das elementare Tiefenprofil zeigt, das in denselben Filmzonen sowohl Stickstoff als auch Sauerstoff nachweist. Da die Röntgendaten lediglich die Bildung von NbO2 nachweisen, jedoch mit einer leichten Verschiebung der Reflexe zu kleineren Winkeln aufgrund der Einlagerung der größeren Nitridionen in das Oxidgitter, muss es sich bei dem präparierten Film um ein Oxynitrid der Form NbO(2-x)Nx handeln, in dem das Verhältnis von N zu O auf der sauerstoffreichen Seite liegt.
Die vorliegende Promotionsarbeit fokussiert auf das transfusionsbedingte Infektionsrisiko bezüglich Hepatitis B-Virus Infektionen. Da das Restinfektionsrisiko bezüglich Hepatitis B deutlich höher als das Restinfektionsrisiko bezüglich Hepatitis C oder HIV-Virus Infektionen anzusehen ist, konzentriert sich die vorliegende Arbeit auf den Stellenwert von Anti-HBc Antikörper für das Blutspenderscreening. In der vorliegenden Arbeit wurden zunächst unterschiedliche Anti-HBs Screening Assays synoptisch bezüglich der Sensitivität und Spezifität sowie anderer Test-Parameter miteinander verglichen und die Prävalenz und Infektiosität Anti-HBc-Ak positiver Blutspenden des Blutspendedienstes Hessen / Baden-Württemberg untersucht. Anschließend erfolgte eine Screening an fünf unterschiedlichen Standorten in Deutschland zur Prävalenz von Anti-HBc sowie zum Prozentsatz von chronisch infizierten Hepatitis B positiven Spendern. Anhand von Lookback Untersuchungen von chronisch infizierten Anti-HBc positiven und HBV DNA positiven Spendern konnte untersucht werden, inwieweit die Transfusion dieser niedrig virämischen Spender zu einer Übertragung von Hepatitis B in der Vergangenheit geführt hat. Darüber hinaus wurde eine Fall-Kontroll-Studie durchgeführt, mit der Fragestellung, inwieweit allein das Vorhandensein von Hepatitis B Antikörper (Anti-HBc Antikörper und Anti-HBe Antikörper) ohne Nachweis von HBV DNA, bereits ein erhöhtes Transfusionsrisiko darstellt. Zusätzlich wurden Daten bezüglich der heutigen Relevanz der HBs-Ag Testung im Blutspendewesen erhoben. Anschließend wurden alle drei für die Doktorarbeit relevanten Screeningparameter bezüglich Hepatitis B für das Blutspenderscreening (HBV Minipool PCR, HBs-Ag Test und Anti-HBc Test) bezüglich der Kosten pro gewonnenen QALY (Quality Adjusted Life Years) berechnet und wieder synoptisch miteinander verglichen. In der abschließenden Diskussion wurden unterschiedliche Screening Szenarien auf ihre Wertigkeit bezüglich der Sicherheit der Blutprodukte sowie auf ihre Kosten-Nutzen-Analyse hin betrachtet. Festgestellt wurde, dass durch die Anti-HBc-Ak Diagnostik im Blutspendewesen eine erhöhte Sicherheit bezüglich einer transfusionsbedingten HBV Transmission erzielt werden kann. Unter ca. 1,4 Millionen untersuchten Spendern konnten 21 HBV DNA positive Spender (alle niedrige HBV DNA Konzentrationen) ermittelt werden. Bei keinem der jeweiligen Empfänger konnte eine Infektion bestätigt werden, bei einem wäre sie möglich gewesen. Dabei konnte gezeigt werden, dass sich das PRISM® HBcore™ Testsystem wegen guter Sensitivität aber auch gleichzeitig guter Spezifität (signifikant besser als PRISM® HBc™) am besten zur Anti-HBc-Ak Routinetestung im Blutspendedienst eignet und selbst bei sehr hohem Probenaufkommen bewährt hat. Im Vergleich unterschiedlicher Testsysteme hatte der AxSym® CORE™ die höchste analytische Sensitivität, im weiteren Vergleich schnitten die untersuchten Assays annähernd gleich ab, zwischen dem PRISM® HBcore™ und PRISM® HBc™ konnte kein weiterer signifikanter Unterschied festgestellt werden. Des weiteren konnte gezeigt werden, dass Anti-HBc-Ak einen guten und sinnvollen Parameter zur HBV Diagnostik darstellt, der, in Verbindung mit der Pool-PCR, eventuell sogar die HBs-Ag Testung abzulösen in der Lage ist. Anhand der im Rahmen dieser Studie erhobenen Daten wären alle HBs-Ag positiven Blutprodukte auch mittels der Pool-PCR und Anti-HBc-Ak Diagnostik identifiziert worden. Darüber hinaus wurden einige HBV positive Blutprodukte mit diesen Verfahren erkannt, die mittels der klassischen HBs-Ag Testung übersehen worden wären. Bestätigt Anti-HBc-Ak positive Spender lassen sich anhand zusätzlicher serologischer Parameter (Anti-HBe-Ak und Anti-HBs-Ak) und wiederholter Testung bestimmen und so auch bestätigen; Die gemessenen S/CO-Werte der einzelnen untersuchten Testsysteme sind in der Lage einen Hinweis auf eine mögliche unspezifische Anti-HBc-Ak Reaktivität geben, so dass in Verbindung mit zusätzlichen HBV Parametern (z.B. Anti-HBe-Ak), die Richtigkeit des Ergebnisses besser eingeschätzt werden kann. Mittels Testung auf weitere HBV Marker (Einzelproben-PCR, Anti-HBs-Ak) können, wie es bereits gesetzlich geregelt wurde, Anti-HBc-Ak positive Blutprodukte durch ein „Re-Entry“ Verfahren wieder der Patientenverwendung zugeführt werden, ohne das HBV Transmissionsrisiko zu erhöhen. Die vorliegende Studie bestätigt diese Annnahme: Es konnte keine einzige HBV Transmission durch Anti-HBc-Ak positives Blut bewiesen werden, welches HBV PCR negativ (Sens. < 5,6 IU/ml) war. Die Prävalenz der Anti-HBc-Ak positiven Blutspender betrug vor Einführung der Anti-HBc-Ak Testung ca. 1,61%, im Spenderkollektiv wird sie aber wegen Selektionierung in den nächsten Jahren stark rückläufig sein.
Hintergrund und Problemstellung: Viele vermeidbare Medikamentennebenwirkungen bei älteren Patienten haben ihre Ursache in der fehlenden Dosisanpassung bei Niereninsuffizienz. Beim Patienten über 65 Jahre liegen die Serumkreatininwerte oft noch im Normbereich, während die tatsächliche Nierenfunktion schon deutlich beeinträchtigt ist. Eine genauere Beurteilung der Nierenfunktion ist mit der Berechnung der glomerulären Filtrationsrate möglich. In der vorliegenden Untersuchung wurde in einer Praxisgemeinschaft einer hausärztlich tätigen Internistin und einer Fachärztin für Allgemeinmedizin in Frankfurt retrospektiv exploriert, ob niereninsuffiziente Patienten als solche erkannt wurden und wenn ja, ob sie dosisadaptiert mit Medikamenten versorgt wurden, bzw. in wie vielen Fällen sie fehlerhafte Verordnungen erhielten. Methode: Eine Zielpopulation von 100 Patienten mit moderater bis schwerer Nierenfunktionseinschränkung (Kreatinin-Clearance von 60 oder kleiner) wurde retrospektiv hinsichtlich der verordneten Medikation untersucht. Dabei wurde die glomeruläre Filtrationsrate mittels Cockroft-Gault-Formel errechnet. Bei nierensensiblen Substanzen wurde die in der Fachinformation empfohlene Dosis mit der tatsächlich verordneten Dosis verglichen. Ergebnisse: Die Ergebnisse dieser Untersuchung zeigen, dass von 232 auswertbaren Patienten 102 eine errechnete Kreatinin-Clearance von weniger als 60 ml/min aufwiesen, obwohl bei 48 Patienten der Serumkreatininlevel noch im Normbereich lag. Eine Dosisanpassung wegen Niereninsuffizienz war bei 261 von 613 Verordnungen erforderlich und wurde in 189 Fällen wie empfohlen umgesetzt. In 72 Fällen (27%) wurde sie nicht korrekt durchgeführt. Hier wurde die Dosis 32 mal nicht angepasst, 40 mal wurde trotz Kontraindikation verordnet. Das Risiko einer Fehlverordnung war signifikant assoziiert mit dem Vorliegen einer schweren Nierenfunktionsstörung (GFR < 30ml/min). Mit dem Vorliegen eines normalen Serumkreatininwerts waren keine signifikanten Assoziationen nachweisbar. Die Substanzen Metformin, Ramipril, Enalapril, HCT, Spironolacton und Simvastatin machten den Hauptanteil der Fehlverordnungen im Bereich der Dauermedikation aus. Bei den temporären Verordnungen waren im Schwerpunkt Antibiotika (Cefuroxim, Cefpodoxim, Levofloxacin) und Antiphlogistika (Diclofenac, Ibuprofen) betroffen. Schlussfolgerung: In einer durchschnittlichen Hausarztpraxis kommen in signifikanten Maße Fehlverordnungen vor. Die Gründe hierfür sind vielfältig. Insbesondere das Verschreibungsverhalten von Hausärzten hat eine zentrale Bedeutung für die Patientensicherheit bei Medikamentenverordnung und sollte unbedingt Gegenstand weiterer Untersuchungen sein.
Einleitung: Seit der Entschlüsselung des menschlichen Genoms ist die Bedeutung genetischer Forschung im Bereich der Prävention und Therapie chronischer Erkrankungen, zum Beispiel des Typ-1-Diabetes, stark gestiegen. Großangelegte multizentrische Forschungsarbeiten wie die Projekte des International Type 1 Diabetes Genetics Consortium (T1DGC) arbeiten an der Aufdeckung noch unbekannter genetischer Prädispositionen zur Entwicklung eines Typ-1-Diabetes und benötigen dafür die Hilfe von Multiplex-Familien. Die Rekrutierung dieser Familien ist schwierig, da in nur 15% der Familien mit Typ-1-Diabetes mehrere Familienangehörige betroffen sind. Um die Motivation zur Studienteilnahme eines solch kleinen Kollektivs besser zu verstehen, wurde die Einstellung zu genetischer Forschung aus Teilnehmersicht untersucht. Hintergrund sind hier die bei vielen Forschern vorhandenen ethischen Bedenken hinsichtlich der psychischen Belastung bei genetischen Untersuchungen für die Teilnehmer. So besteht ein – bisher kaum untersuchter - allgemeiner Konsens, dass die Konsequenzen von Genanalysen für die Betroffenen nicht einzuschätzen sind. Somit stehen die Forscher vor dem Dilemma, welches in der Notwendigkeit, Genanalysen durchzuführen, und in der Furcht vor einer zu hohen psychischen Belastung der teilnehmenden Personen besteht. Dies hat derzeit zur Folge, dass den Teilnehmern die Ergebnismitteilung in der Regel verwehrt wird. Ergebnisse: Von 180 angeschriebenen füllten 140 Teilnehmer des T1DGC-Projektes einen Fragebogen hinsichtlich ihrer Meinung zu genetischer Forschung und ethischen Fragestellungen anonym aus: 88,6% der Teilnehmer äußerten, dass sie generell genetische Forschung als sehr wichtig ansehen. Es gaben 60% der Befragten an, dass sie nicht genügend Informationen über das Projekt erhalten hatten. 95% der Teilnehmer wünschten ein vollständiges Verständnis der wichtigsten Studiendetails. Als bevorzugte Informationswege gaben die Teilnehmer schriftliche Informationen per Post oder durch eine Internet-Website an. 83,2% der Befragten möchten über das Vorliegen einer erblichen Hochrisiko-Konstellation für das Auftreten von Komplikationen informiert werden. Im Falle des Nachweises eines Hochrisikogens für Typ-1-Diabetes möchten 87,6% darüber aufgeklärt werden. 96,4% der Teilnehmer sind generell an einer Ergebnismitteilung interessiert. Es zeigten sich keine signifikanten Unterschiede im Antwortverhalten in Abhängigkeit von Betroffenenstatus, Alter, Geschlecht, Staatsangehörigkeit, Familienstand sowie Schul- bzw. Berufsabschluss. Schlussfolgerung: Für die Teilnehmer genetischer Studien zum Thema Typ-1-Diabetes ist der Wunsch nach ausführlicher, individuell angepasster Information grundlegend. Es muss festgestellt werden, dass die Teilnehmer am International Type 1 Diabetes Genetics Consortium (T1DGC) sich gut betreut, doch letztlich nicht ausreichend informiert gefühlt haben. Daraus lässt sich ableiten, dass neben dem individuellen Beratungsgespräch auch schriftliche Informationen mit klar konzipierter Wissensaufbereitung in Form von Websites, Broschüren und Rundbriefen (in elektronischer und/oder gedruckter Form) empfehlenswert sind. Ein wichtiges Ergebnis ist ferner, dass die Befragten die Sorge vieler Wissenschaftler und Ärzte nicht teilen, die Mitteilung eines erhöhten Erkrankungs- bzw. Komplikationsrisikos für einen Typ-1-Diabetes würde als zusätzliche Belastung empfunden werden. Im speziellen Fall der Multiplexfamilien bestanden allerdings bereits Erfahrungen mit der untersuchten Erkrankung des Typ-1-Diabetes. Eine Mitteilung, ob nun negativ oder positiv, wird im Vergleich zum Wissen um das Risiko keineswegs als psychische Bürde, sondern vielmehr als Chance zur Einflussnahme wahrgenommen. Es muss allerdings festgehalten werden, dass die Ergebnisse dieser Untersuchung sich mit dem Typ-1-Diabetes auf eine chronische, jedoch gut therapierbare und nicht generell lebenszeitverkürzende Erkrankung beziehen. Für die Übertragbarkeit der Ergebnisse auf andere genetisch-bedingte Erkrankungen ist weitere Forschung notwendig. Der bisher bestehende Konsens, im Rahmen genetischer Studien keine Ergebnismitteilung bezüglich chronischer, unheilbarer Krankheiten durchzuführen, muss überdacht werden. Den Studienteilnehmern ist das Recht auf Selbstbestimmung ein grundlegender Wert. Diese Selbstbestimmung beinhaltet, dass das Pro und Contra einer Ergebnismitteilung selbst eingeschätzt werden kann. Möchte ein Studienteilnehmer das Ergebnis der Auswertung seiner biologischen Proben erhalten, sollte ihm dies nicht verwehrt werden.
Sexuelle Funktionsstörungen gehören zu den häufigsten Störungen unserer Zeit und stellen oftmals eine starke Beeinträchtigung der Lebensqualität für den Patienten und seine Partnerschaft dar. Dem Zusammenhang zwischen sexueller Gesundheit und Lebensqualität wurde erst in den letzten Jahren vermehrt Aufmerksamkeit gewidmet, wobei Studien immer wieder den wichtigen Zusammenhang von Sexualität und Lebenszufriedenheit bzw. Lebensqualität belegen. Da bei sexuellen Dysfunktionen organische und psychische Faktoren meistens ineinander greifen, ist die Gruppe derer, die unter diesen Störungen leiden können, sehr breit gefächert. Aufgrund des demografischen Wandels sowie der Zunahme chronischer Erkrankungen ist davon auszugehen, dass die (sekundären) sexuellen Dysfunktionen weiter ansteigen werden. Der Kenntnisstand der Forschung und die Datenlage bezogen auf Epidemiologie, Therapieverfahren und Therapiewirksamkeit sexueller Funktionsstörungen ist in den letzten 60 Jahren seit Kinsey zwar erheblich besser geworden, aber im Vergleich zu anderen medizinischen und psychologischen Störungsbildern nach wie vor unbefriedigend. Auch die Versorgungslage der Patienten im Bereich sexueller Dysfunktionen ist von einer deutlich unzureichenden Anzahl sexualtherapeutisch ausgebildeter Ärzte und Psychologen geprägt. Die vorliegende Arbeit soll einen Beitrag zur Entwicklung und Erforschung des Verständnisses sexueller Funktionsstörungen liefern, mit dem Ziel, die bisher bestehenden therapeutischen Konzepte zu erweitern und somit eine bessere Versorgung von Patienten mit sexuellen Funktionsstörungen zu gewährleisten.
Ziel der vorliegenden Arbeit war es, Qualität und Struktur der notärztlichen Versorgung von Patienten mit akutem Koronarsyndrom im Rahmen des „Netzwerks Herzinfarkt“ im Zeitraum vom 01.04. – 31.12. 2003 zu beurteilen. Hierzu wurden aus den von der Rettungsleitstelle zur Verfügung gestellten Daten 1588 Notarzteinsätze ausgewählt, die dem Notruf nach einem akuten Koronarsyndrom entsprechen könnten. Aus diesen 1588 Einsatzprotokollen wurden 506 herausgefiltert, bei denen die notärztliche Diagnose tatsächlich einem akuten Koronarsyndrom entsprach; diese wurden der definitiven Bearbeitung zugeführt. Zunächst wurde die gesamte Dokumentation im DIVI-Einsatzprotokoll auf Vollständigkeit und Schlüssigkeit überprüft, in einem zweiten Schritt dann die Qualität der medikamentösen und Basisversorgung der Patienten beurteilt. In diesen Bereichen waren die wesentlichen Ergebnisse die ausgesprochen ungenaue Dokumentation der Einsatzzeiten sowie der Anamnese und die in 37,5% aller Fälle fehlende Anfertigung eines 12-Ableitungs-EKG´s. Bei der Therapie fiel ein allgemein sehr zurückhaltender Einsatz von Betablockern, ASS und Heparin auf. Ein Vergleich der präklinisch als akuter Myokardinfarkt diagnostizierten Patientengruppe mit der restlichen Stichprobe erbrachte keine signifikanten Unterschiede bezüglich der untersuchten Parameter. Die Sensitivität der notärztlichen Infarktdiagnostik betrug 98,4%, die Spezifität 78,6%. Die benötigten prästationären und innerklinischen Zeiten (Arztkontakt bis zur Einlieferung, contact-balloon, door-balloon-Zeit) blieben im Rahmen bzw. deutlich unter den von den Leitlinien der Deutschen Gesellschaft für Kardiologie geforderten Zeiten. Im Follow-Up-Beobachtungszeitraum (6 Monate) wiesen 97,6% der Rettungsdienstpatienten ein komplikationsloses Überleben auf. Signifikante Ergebnisse konnten bei der Evaluation der Bedeutung der notärztlichen Fachrichtung für die Behandlungsqualität gezeigt werden. So schnitten die Einsatzprotokolle von Chirurgen und Allgemeinmedizinern in der durchgeführten allgemeinen Beurteilung deutlich schlechter ab als die der Internisten und Anästhesisten. Dieser Trend bestätigte sich auch in der konkreten Analyse der medikamentösen Therapie, jeweils gemessen an den gültigen Leitlinien. Insgesamt war die Qualität der notärztlichen Behandlung der Patienten mit akutem Koronarsyndrom als in den genannten Punkten verbesserungsbedürftig, in den übrigen Parametern jedoch als gut anzusehen. Insbesondere im Hinblick auf die notärztliche Fachrichtung scheint eine strukturiertere Weiterbildung zum Erwerb der Zusatzbezeichnung „Notfallmedizin“ empfehlenswert. Die niedrige Komplikationsrate der präklinisch als akuter Myokardinfarkt diagnostizierten und direkt ins Interventionszentrum verbrachten Patienten im Follow-Up-Zeitraum und der deutliche Unterschied zu den Transferpatienten illustriert den Behandlungsbenefit, der aus einer verzögerungsfreien interventionellen Therapie des akuten Myokardinfarkts resultiert.
Qualität und Qualitätsmanagement in der universitären naturwissenschaftlichen Lehrerfortbildung
(2010)
Vor dem Hintergrund der politischen Entwicklungen in Hessen und der allgemeinen Debatte über Qualität im Bildungsbereich sollte im Lehrerfortbildungszentrum Chemie (lfbz-Chemie) der Universität Frankfurt am Main eine systematische Qualitätsentwicklung etabliert und dieses Vorhaben wissenschatflich begleitet werden. Die wissenschaftliche Arbeit besteht aus drei Säulen: - Eine erste, qualitative Studie sollte Qualitätskriterien und -indikatoren liefern. - In einer Fallstudie am lfbz-Chemie Frankfurt sollte die Einführung von Instrumenten des Qualitätsmanagements aus dem gewerblichen Weiterbildungsbereich beobachtet und bewertet werden. - Eine bundesweite Umfrage unter universitären Fortbildungsanbietern im naturwissenschaftlichen Bereich sollte sowohl die Struktur der anbietenden Institutionen als auch die allgemeine Einstellung der Befragten zum professionellen Qualitätsmanagement (QM) nach einem im gewerblichen Bereich geläufigen Modell (LQW) beleuchten. Die Qualitätsindikatoren und -kriterien fielen sehr spezifisch für die naturwissenschaftliche Lehrerfortbildung aus. Allein die drei folgenden Bereiche erfassen zwei Drittel aller Nennungen: die „Qualität der Teamer bzw. Moderatoren“, die „Fortbildungsgestaltung“ und die „Zielgruppenorientierung (Schulbezug)“. Nimmt man die Anzahl der Indikatoren und Kriterien pro Bereich als Maßstab, fokussieren die Befragten sehr stark auf Anforderungen, die die Professionalität des Personals betreffen. Zur Orientierung für die Qualitätsarbeit am lfbz-Chemie (Fallstudie) wurde das QM-Modell LQW 2 gewählt; als kleinere Instrumente kamen die Tabellen nach dem Vorbild der Balanced Scorecard (BSC) nach Kaplan und Norton sowie die Stärken-Schwächen-Analyse zum Einsatz. Als erstes Ergebnis der Fallstudie kristallisierten sich drei Arbeitsbereiche heraus: Personalorganisation, Evaluation und Innovationen. Diese Arbeitsfelder ergänzten die identifizierten Anforderungen an Fortbildung somit um Bereiche, die eher der organisatorischen Ebene zuzuordnen sind. Es ließ sich in der Fallstudie feststellen, dass ein ganzes Qualitätsmanagementmodell wie LQW 2 nur als Anregung für den einen oder anderen, als wichtig erachteten Bereich dienen konnte, während sich kleinere Instrumente eher als handhabbar erwiesen. Außerdem konnte postuliert werden, dass - ein persönlicheres Eingehen auf die Ziele und Aufgaben der einzelnen Personen im Sinne eines Total Quality Managements vermutlich zu besseren Ergebnissen geführt hätte als die Konzentration auf allgemeine Themen und die Orientierung am eher abstrakten Modell, - Erfolge sehr nachdrücklich kommuniziert werden müssen und - möglichst eine Person aus dem Stammpersonal für den Bereich Qualität verantwortlich sein sollte. Um ergänzend zur Fallstudie zu allgemeineren Schlüssen gelangen zu können, wurde eine Charakterisierung der universitären Fortbildungsanbieter mittels Clusteranalyse mit Daten der bundesweiten Umfrage durchgeführt. Sie zeigte vier Typen von Anbietern auf. Insgesamt fanden sich neben der Gruppe der großen Anbieter, zu denen auch das lfbz-Chemie gehört, nur vergleichsweise kleine Anbieter. Die in der Fallstudie erhaltenen Ergebnisse können somit nur eingeschränkt auf die meisten Anbieter übertragen werden. Insgesamt konnten Stärken und Schwächen der universitären Anbieter identifiziert werden, mit denen sich die universitäre naturwissenschaftliche Lehrerfortbildung von der gewerblichen Weiterbildung abhebt. Stärken lagen vor allem in den besonderen Kompetenzen, die an der Hochschule anzutreffen sind. Problemfelder lagen ausgerechnet hauptsächlich im Personalbereich. Als spezifische Schwächen der universitären Anbieter im Personalbereich kann z. B. die Stellung der Fortbildung als Nebenaufgabe oder der Verlust von Know-how durch die Fluktuation des Personals gelten. Auch allgemein kann ein Modell wie LQW 2 als Anregung für die Qualitätsarbeit in der universitären Lehrerfortbildung dienen, nicht jedoch umfassend umgesetzt werden. Die „kleineren“ Instrumente können dagegen eher als allgemein geeignet betrachtet werden. Während die „großen“ Anbieter durch verbesserte personelle Ressourcen für Aufgaben wie die Qualitätsarbeit unterstützt werden könnten, bietet sich für die „kleinen“ Anbieter eher die Unterstützung durch eine zentrale Stelle der Universität an, um die Fortbildungsanbieter doch noch in ein professionelles Qualitätsmanagement einbinden zu können.
Fluviale Sedimente und Ablagerungen aus küstennahen Bereichen werden im mediterranen Raum häufig herangezogen, um die Reaktionen von Fusssystemen auf Klimawandel, menschliche Einflussnahme und andere Faktoren zu rekonstruieren. Arbeiten, die mit systembasierten Ansätzen auf Einzugsgebietsebene quantitative Aussagen ermöglichen, sind jedoch rar. In der vorliegenden Arbeit wird für das Einzugsgebiet des Rio Palancia, Spanien, ein quantifizierter Sedimenthaushalt vorgestellt, der die Sedimentproduktion des Hinterlandes über die Sedimentpfade mit der Speicherung im Einzugsgebiet und der Lieferung zum Flussdelta verbindet. Ziel ist es, den anteiligen Einfluss von Steuergrößen wie Neotektonik, Klimawandel und Landnutzung auf den spätquartären Sedimentfluss in dem 969,9 km2großen Einzugsgebiet zu bestimmen. Das Einzugsgebiet des Rio Palancia ist Teil der südlichen Ausläufer der Iberischen Kette und mündet bei Sagunto in das Mittelmeer. Mit Hilfe von photogrammetrischen und geomorphologischen Kartierungen, Felddaten (Aufschlussuntersuchung, Rammkern-sondierung) sowie geophysikalischen Messmethoden wurden die Geometrien sowie die internen Strukturen von Sedimentablagerungen untersucht. Auf diesen Grundlagen konnte ein GIS-basiertes Sedimentbudget mit quantitativen Abschätzungen für Budgetkomponenten entlang der Sedimentkaskade erstellt werden. Der Talboden des Rio Palancia-Einzugsgebietes wird dominiert von mehreren pleistozänen und holozänen Degradierungsniveaus, die sich in pleistozäne Kiese und Sande eingeschnitten haben. Bedeutende holozäne, fluviale Sedimentation kann hauptsächlich im mittleren und unteren Einzugsgebiet belegt werden. Obwohl ausgedehnte landwirtschaftliche Terrassenanlagen auf dem Talboden und den Hängen von einem starken anthropogenen Einfluss zeugen, ist davon auszugehen, dass die Degradierung des Talbodens noch bis etwa 390 AD auf den Ausgleich eines sich erhöhten Flussgradienten durch vorangegangene Aggradation zurückzuführen ist. Landwirtschaftliche Nutzung durch Terrassenfeldbau, die seit dem dritten Jahrhundert BC im Arbeitsgebiet belegt ist, deutet auf eine nachhaltige Abkopplung der Sedimentlieferung von den Hängen und pleistozänen bzw. holozänen Sedimentquellen zum aktiven Flussbett hin. Dies resultiert seit dem Mittelalter in einer Potenzierung des vorherrschenden Verengungs- bzw. Einschneidungstrend des aktiven Gerinnebettes. Die Ergebnisse weisen auf ein kompliziertes Zusammenspiel von neotektonischem Erbe, klimagesteuertem Abflussregime und späterer menschlicher Einflussnahme hin, die den Sedimentfluss vom Hinterland zur Küstenzone maßgeblich steuern.
Die vorliegende Arbeit befasst sich mit periprothetischen Frakturen nach endoprotheti-schen Gelenkersatz von Schultergelenk, Hüftgelenk und Kniegelenk.
Über einen Zeitraum von 6 Jahren konnten 64 operative Frakturversorgungen bei 59 Patienten identifiziert werden.
Diese unterteilten sich in 8 Frakturen des Humerus, sowie 44 Frakturen des Femur nach Hüftgelenkersatz und 12 femorale Frakturen nach Kniegelenkersatz.
Die epidemiologischen Daten unseres Kollektivs mit PPF nach Hüft- und Kniegelenker-satz decken sich mit denen der aktuellen Fachliteratur. So wiesen unsere Patienten einen Altersdurchschnitt von 77,7 +/- 11,0 Jahre auf. Ein Großteil (77% der Patienten) war weiblich. Das follow up erfolgte durchschnittlich nach 27,2 +/- 16,8 Monaten.
Im Falle einer zementfreien primären Endoprothetik erfolgte die Fraktur früher, nach durchschnittlich 64,6 Monaten, gegenüber 103,4 Monate bei zementierter Prothese (p=0,11).
Der Zeitpunkt der PPF lag bei Hüftendoprothesen nach durchschnittlich 96 Monaten und bei Kniegelenkendoprothesen nach durchschnittlich 56 Monaten.
Hinsichtlich der Krankenhausliegezeit zeigten sich keine signifikanten Unterschiede. Ebenso war die Mobilisation gemessen am timed „up and go― Test in Abhängigkeit von der Prothesenlokalisation und Versorgungsart nicht signifikant unterschiedlich (Range 22-32 Sekunden).
Bei der gezielten Nachuntersuchung von periprothetischen Femurfrakturen nach Hüft-gelenkersatz mit festem Prothesensitz zeigte sich bei der plattenosteosynthetischen Versorgung eine signifikant höhere verfahrensbezogene Komplikationsrate (66,7% gegenüber 18,8 %), p= 0,01. Die beiden Patientenkollektive unterschieden sich hin-sichtlich epidemiologischer Daten (Alter, Geschlecht, Rate an primär zementierten Pro-thesen, follow up) nicht.
In der Gesamtzusammenschau bleiben PPF Verletzungen, die eine große Herausfor-derung an die behandelnden Chirurgen stellen.
Aufgrund des multimorbiden Patientenkollektivs im hohen Lebensalter mit einer hohen lost to follow up Rate sind retrospektive Analysen meist von geringer Fallzahl.
Die Effizienz der jeweiligen Versorgungsart in Abhängigkeit von Prothesentyp, Fraktur-klassifikation und Verwendung von Zement bei der Primärendoprothetik sollte in mulit-zentrischen, randomisiert kontrollierten Studien geprüft werden.
Das Ziel dieser Studie ist es, die Möglichkeiten und Grenzen von hochauflösenden Klimaprojektionen in orographisch beeinflussten Gebieten an den Beispielen der europäischen Alpen und des Himalajas zu prüfen. Insbesondere wird die Fragestellung untersucht, ob beobachtete regionale Muster in den höher aufgelösten Daten besser wiedergegeben werden als in den antreibenden großskaligen Daten. Dazu werden regionale Klimasimulationen des COSMO-CLM Modells und Daten von zwei statistischen Regionalisierungsmethoden mit ERA40 Reanalysen sowie Daten des globalen Atmosphäre-Ozean Modells ECHAM5/MPIOM für verschiedene Parameter des Klimasystems verglichen. Ein Vergleich mit den Reanalysen anhand täglicher Niederschlagsstatistiken ergibt, dass die COSMO-CLM Niederschlagsdaten auf der 0.5° Skala vergleichbar sind mit ERA40 Niederschlägen und mit statistisch regionalisierten ERA40 Niederschlägen. Eine zusätzliche Fehlerkorrektur der COSMO-CLM Niederschläge liefert gute Ergebnisse. Dabei sind jedoch etwa 500 Regentage notwendig, um eine robuste Fehlerabschätzung zu gewährleisten. Für das südasiatische Gebiet ist eine realistische Wiedergabe des indischen Sommermonsuns (ISM) in den Modellen von hoher Relevanz. Betrachtet man nur die Mittelwerte und zeitlichen Variabilitäten von verschiedenen Indizes des ISM, so liefert das COSMO-CLM keinen Mehrwert im Vergleich zu den antreibenden Daten. Allerdings werden die räumlichen Strukturen von Niederschlag und vertikaler Windscherung, sowie die zeitliche Korrelation der modellierten Indizes gegenüber dem ECHAM5/MPIOM Modell verbessert. Die durchgeführten COSMO-CLM Projektionen für die Jahre 1960 bis 2100 zeigen negative Trends des ISM für die SRES Szenarien A2, A1B und B1. Die negativsten Trends sind dabei im Szenario A2 zu finden, gefolgt von A1B und B1. Fast keine Trends zeigen sich im commitment Szenario. Trotz großen zeitlichen Variabilitäten sind die Abnahmen in Niederschlagsmengen, ausgehender langwelliger Strahlung und Windscherung statistisch signifikant in großen Regionen des Simulationsgebietes. Für Nordwest-Indien weisen die Projektionen teilweise einen Rückgang der Monsunniederschläge von über 70% in 100 Jahren auf. Der Rückgang der Windscherung ist hauptsächlich auf Veränderungen in der oberen Troposphäre bei 200 hPa zurück zu führen. Während in den COSMO-CLM Projektionen alle Indizes des ISM synchrone Negativtrends aufweisen, sind die Trends für den Monsunregen über Indien im globalen ECHAM5/MPIOM Model positiv. Gemäß den Definitionen der verschiedenen Indizes, sind jedoch synchrone Trends wahrscheinlicher und das COSMO-CLM liefert zu den globalen ISM Projektionen ebenfalls einen Mehrwert. Insgesamt zeigen die Ergebnisse dieser Studie, dass das COSMO-CLM wertvolle regionale Zusatzinformationen zu den globalen Modellen in den beiden untersuchten Regionen liefert. Für die Einzugsgebiete der oberen Donau und des oberen Brahmaputra liefern die COSMO-CLM Projektionen einen signifikanten Anstieg der Temperatur für alle Jahreszeiten der Jahre 1960 bis 2100. Die Werte sind generell höher im Brahmaputragebiet, mit den größten Trends in der Region des tibetanischen Plateaus. Im Niederschlag zeigen die saisonalen Anteile ebenfalls klare Trends, beispielsweise eine Zunahme des Frühjahrsniederschlags im Einzugsgebiet der oberen Donau. Die größten Trends werden wiederum in der Region des tibetanischen Plateaus projiziert mit einem Anstieg von bis zu 50% in der Länge der Trockenperioden zwischen Juni und September und einem gleichzeitigen Anstieg von etwa 10% für die maximale Niederschlagsmenge an fünf aufeinander folgenden Tagen. Für die Region Assam in Indien, zeigen die Projektionen zudem eine Zunahme von 25% in der Anzahl der aufeinander folgenden trockenen Tage während der Monsunzeit
5-Lipoxygenase (5-LO) katalysiert die ersten beiden Schritte in der Biosynthese der Leukotriene, die an Reaktionen des Immunsystems beteiligt sind. Die 5-LO-Aktivität wird durch verschiedene Faktoren wie Ca2+, Phospholipide und den zellulären Redoxstatus beeinflusst. Die 5-LO besteht aus einer katalytischen und einer N-terminalen, C2-ähnlichen Domäne. Durch Oxidation des Eisens im aktiven Zentrum zur Fe3+-Form wird das Enzym aktiv. Die C2-ähnliche Domäne bindet Ca2+ und PC und ist für die Membranbindung der 5-LO verantwortlich. In der vorliegenden Arbeit wurde die Aktivierung der 5-LO durch das Diacylglycerid OAG untersucht. Bekannt war die Stimulation der Agonist-induzierten 5-LO-Aktivität in intakten Zellen durch OAG, die nicht auf den bekannten Aktivierungswegen wie Translokation, Phosphorylierung oder Ca2+-Mobilisierung beruht. Hier kann nun die direkte Aktivierung des 5-LO-Enzyms durch OAG in vitro gezeigt werden. Untersucht man den Einfluss von OAG auf die 5-LO-Aktivität in Anwesenheit von 1 mM Ca2+, lässt sich weder an Homogenat, S100 noch am partiell aufgereinigten Enzym aus PMNL ein Effekt beobachten. Entfernt man dagegen Ca2+ aus den Versuchsansätzen, induziert OAG (30 µM) bei Substratkonzentrationen unter 20 µM AA die 5-LO-Aktivität im S100 und am partiell aufgereinigten Enzym. Auch andere Glyceride wie DOG, OG und EAG aktivieren die 5-LO, nicht jedoch SAG. OAG stabilisiert die 5-LO-Aktivität vor der Hemmung durch die Glutathionperoxidase (GPx), dies vermögen ebenfalls andere Glyceride. Damit ähnelt der Einfluss von OAG auf die 5-LO dem bereits bekannten Effekt von Ca2+: es ist in der Lage, vor allem bei niedrigen Substratkonzentrationen die 5-LO-Produktmenge direkt zu erhöhen und kann die 5-LO-Aktivität gegen den inhibitorischen Effekt der Glutathionperoxidase (GPx) stabilisieren. Ähnlich wie Ca2+ scheint OAG die Affinität der 5-LO für das Substrat AA zu erhöhen und das Bedürfnis für aktivierende Hydroperoxide zu erniedrigen. Durch Untersuchungen im Rahmen dieser Arbeit kann eine Beteiligung der Ca2+-Bindungsstelle an der Interaktion zwischen 5-LO und OAG ausgeschlossen werden, da OAG auch an der loop2 mut-5LO die Aktivität zu steigern vermag. Der Anstieg der 5-LO-Produktbildung durch OAG in S100 und am partiell aufgereinigten 5-LO-Enzym lässt sich durch die Zugabe von PC und anderen Phospholipiden unterbinden. Damit erklärt sich gleichzeitig, weshalb OAG am Homogenat aus PMNL keine Effekte zeigt, da hier noch Zellmembran-Bestandteile enthalten sind. Der OAG-Effekt wird wohl über die drei Tryptophan-Reste Trp-13,-75 und -102 der Phospholipid-Bindungsstelle auf der C2-ähnlichen Domäne der 5-LO vermittelt. Dies zeigen auch Untersuchungen an der 3W mut-5LO, bei der die drei Tryptophan-Reste zu Alanin-Resten mutiert sind. Die Aktivität dieser Mutante lässt sich durch OAG unter den bereits beschriebenen Versuchsbedingungen nicht steigern. Ein weiterer Hinweis auf die Phospholipid-Bindungsstelle ist die Interaktion zwischen OAG und dem 5-LO-Inhibitor Hyperforin. Hyperforin selbst hemmt die 5-LO über diese Bindungsstelle, durch OAG wird der IC50-Wert von Hyperforin deutlich erhöht. Im Rahmen dieser Arbeit wurde ein Lipid Protein Overlay Assay für 5-LO ausgearbeitet, ein direkter Nachweis der Bindung zwischen OAG und 5-LO ist aber bisher nicht gelungen. OAG steigert nicht die Aktivität des 5-LO-Enzyms aus serumfrei kultivierten MM6-Zellen, BL41-E95-A Zellen und transfizierten HeLa-Zellen, auch die Produktmenge der Sojabohnen-LO kann nicht durch OAG beeinflusst werden. Untersucht man die Interaktion von OAG mit aufgereinigter regulatorischer Domäne (MBP-Fusionsprotein, MBP-5LO1-128), so zeigt sich eine weitere Steigerung der durch OAG-induzierten 5-LO-Aktivität, obwohl MBP-5LO1-128 bei höheren Konzentrationen eine Hemmung der 5-LO-Aktivität durch Reduktion der gebildeten 5-HPETE verursacht. Diese Ergebnisse lassen sich damit erklären, dass OAG das Bedürfnis der 5-LO für Hydroperoxide senkt und damit geringere Mengen an 5-HPETE zur Aktivierung der 5-LO ausreichen. Betrachtet man das 5-HETE/5-HPETE-Verhältnis, führt die Zugabe OAG in Abwesenheit von Ca2+ und bei 10 µg MBP-5LO1-128 zu einer geringen Abnahme des 5-HETE-Anteils. Im zweiten Teil der Arbeit wurden neue 5-LO-Inhibitoren identifiziert. Aus der Reihe der Pirinixinsäure-Derivate konnte durch entsprechende Modifikationen der potente 5-LO-Inhibitor LP 119 mit einem IC50-Wert von 0,6 µM in intakten PMNL-Zellen identifiziert werden. Durch systematisches Durchsuchen virtueller Datenbanken konnten mindestens zwei Substanzen gefunden werden, die sowohl an intakten Zellen wie auch am partiell aufgereinigten Enzym die 5-LO-Aktivität hemmen, weitere Untersuchungen ergaben, dass es sich wohl zumindest bei einer Strukturklasse um einen direkten 5-LO-Inhibitor handelt.
Im ersten Teil dieser Arbeit wurde eine Variante des Anti-Thrombin-Aptamers HD1 entwickelt, die vor Belichten aktiv war und sich durch Belichten deaktivieren ließ. Dazu wurde das Wildtyp-Aptamer am 5'-Ende um eine GAAA-Schleife und eine Gegenstrangregion, bestehend aus vier Nukleotiden, erweitert. Dies reichte für eine vollständige Inaktivierung des Aptamers aus. In die Gegenstrangregion wurde ein photolabil geschütztes Nukleotid eingebaut, das die Bildung einer Haarnadelstruktur vorübergehend verhindert. Dazu wurde ein Desoxycytidin-Derivat synthetisiert, das an seiner N4-Position mit einer 1-(2-Nitrophenyl)ethyl-Gruppe modifiziert war. Durch die Maskierung der Antisense-Region wies das Aptamer vor Belichtung blutgerinnungshemmende Aktivität auf, allerdings in geringerem Maße als das Wildtyp-Aptamer. Durch Belichten wurde die Gegenstrangregion freigesetzt und dadurch die aktive Konformation des Aptamers zerstört, sodass es keine blutgerinnungshemmende Wirkung mehr besaß. In einem daran anknüpfenden Projekt sollte eine mit Licht ausschaltbare HD1-Variante mit verbessertem Schaltverhalten entwickelt werden, deren Aktivität vor dem Belichten mit der des Wildtyp-Aptamers vergleichbar ist. Tests zeigten, dass eine 5'-Erweiterung des Aptamers stets einen Aktivitätsverlust zur Folge hatte. Getestet wurden verschiedene Linker-Sequenzen, D-Spacer (Abasic Sites) und nicht nukleotidische Linker wie Glykollinker oder alkylische Linker. Eine Erweiterung am 3'-Ende brachte dagegen fast immer Aptamervarianten hervor, deren Aktivität die des Wildtypaptamers überstiegen. Um diese verbesserten Aptamervarianten zu deaktivieren, war eine Antisense-Region bestehend aus bis zu neun Nukleotiden nötig. Für eine photolabil geschützte Variante wurde zusätzlich ein Desoxyadenosinderivat mit N6-1-(2-Nitrophenyl)ethylmodifikation synthetisiert. Es zeigte sich, dass eine photolabile Schutzgruppe nicht ausreichte um die Antisense- Region zu neutralisieren. Aptamervarianten mit vier oder fünf photolabilen Schutzgruppen in der Antisenseregion waren vor dem Belichten aktiver als das Wildtyp-Aptamer HD1 und konnten durch Belichten vollständig deaktiviert werden. In einem weiteren Projekt dieser Arbeit wurde eine photolabil geschützte Glukosamin-6- phosphat-Variante synthetisiert, um eine lichtabhängige Spaltung des glmS-Ribozyms aus Bacillus subtilis zu induzieren. Dazu wurde GlcN6P an der Aminofunktion über eine Carbonyllinker mit einer 2-(2-Nitrophenyl) propylgruppe modifiziert. In vitro konnte gezeigt werden, dass mit dieser Verbindung durch Belichten die Spaltung eines glmS-EGFP-mRNA-Konstrukts induziert werden konnte. In HeLa-Zellen wurde untersucht, ob sich dieses System zur Regulation der EGFP-Expression eignet. Da erste Versuche erfolglos blieben, wurde eine lipophile, zellgängige Variante des photolabil geschützten GlcN6Ps synthetisiert. Versuche, in denen dieses Derivat getestet wird, werden zur Zeit von unseren Kooperationspartnern durchgeführt. In einem weiteren Projekt wurden Desoxyguanosinderivate für die DNA-Festphasensynthese synthetisiert, die an ihrer O6-Position mit einer p-Hydroxyphenacylgruppe bzw. mit einer 1-(3-Nitrodibenzofuran-2-yl)ethylgruppe modifiziert wurden. Diese wurden in ein Desoxyoligonukleotid eingebaut und es konnte gezeigt werden, dass die photolabilen Schutzgruppen durch Belichten abgespalten werden. Beide photolabilen Modifikationen waren allerdings unter den basischen DNA-Abspaltbedingungen zu instabil, als dass sie sich für den routinemäßigen Einsatz zur Herstellung lichtaktivierbarer Nukleinsäuren eignen würden. Im letzten Teil der Arbeit wurde eine photolabile Schutzgruppe entwickelt, die über einen zusätzlichen Aminolinker verfügt [2-(4-(Aminomethyl)-2-nitrophenyl)-propanol]. Die Aminofunktionalität war für die Dauer der DNA/RNA-Festphasensynthese mit einer Trifluoracetylgruppe geschützt, die unter den basischen Abspaltbedingungen ebenfalls entfernt wird. Mit dieser photolabilen Schutzgruppe wurden ein Thymidinderivat an der O4-Position und ein Desoxyguanosinderivat an der O6-Position modifiziert. Das Desoxyguanosinderivat wurde erfolgreich in der Oligonukleotidfestphasensynthese eingesetzt. Die photolabile Schutzgruppe konnte durch Belichten vollständig von der synthetisierten Nukleinsäure abgespalten werden. Darüber hinaus gelang es, über die Aminofunktionalität die heterobifunktionalen Crosslinker SMCC und SMPB mit der Nukleinsäure zu verknüpfen. Auf diese Weise ist eine reversible Vernküpfung der Nukleinsäure mit einem nahezu beliebigen Bindungspartner möglich. Durch Belichten kann die Nukleinsäure in ihrer ursprünglichen Form wiederhergestellt werden.
Im Rahmen dieser Arbeit wurde die Funktion ausgewählter Gene näher charakterisiert und ihr globaler Einfluß auf die Regulation der Genexpression untersucht. Im Fokus der Untersuchungen stand ein Gen, welches im Rahmen der Promotion von Alexander Zaigler in der Arbeitsgruppe Soppa (Universität Frankfurt) zunächst als Transkriptionsregulator ähnlich zu rspA aus E. coli identifiziert wurde. Zu Beginn dieser Arbeit konnte durch in silico Analysen das entsprechende Genprodukt zur Enolase Superfamilie (COG1441) zugeordnet werden. Mit Hilfe der „pop-in/pop-out“ Methode wurde das Gen in H. volcanii in frame deletiert und durch Wachstumsversuche, Northern- sowie Westernblot Analysen näher charakterisiert. Bei der Untersuchung des Wachstums konnte ein bemerkenswerter Phänotyp entdeckt werden: nur der Wechsel der Nährstoffquelle von reichhaltigen zu armen Bedingungen resultierte in einer dreitägigen Lagphase. Darüber hinaus wurde die Genexpression im Laufe eines Wachstumzyklus mittels Northern- und Westernblot Analysen bestimmt. Während das Transkript in reichhaltigem Medium nur transient expremiert wurde, wurde es in nährstoffarmen Bedingungen in allen Wachstumsphasen sehr stark induziert. Durch die Ergebnisse konnte zudem eine translationale Regulation der Genexpression nachgewiesen werden. Die Resultate offenbarten eine wichtige Funktion bei der Transition von reichem zu ärmerem Nährstoffangebot und führten schließlich zur Genbezeichnung iftA („important for transition A“). Desweiteren wurden Transkriptomuntersuchungen der Deletionsmutante im Vergleich zum Wildtyp zum Zeitpunkt der höchsten transienten Expression von iftA durchgeführt. Dadurch konnte gezeigt werden, dass iftA etwa 1% aller Gene des Genoms beeinflußt und gleichzeitig die Zahl differentieller Funktionen dieser Gene sehr gering ist. Die Ergebnisse führten insgesamt zu der Annahme, dass iftA eine Doppelfunktion besitzt, sowohl als enzymatisches Protein im Energiestoffwechsel als auch als essentieller Regulator mit noch unbekannter Funktion. Neben iftA fiel das Augenmerk auf mehrere Gene, die im Rahmen der Promotion von Neta Altman-Price an der Universität in Tel-Aviv als Histon-Acetylasen und –Deacetylasen identifiziert wurden. Zudem konnte in H. volcanii ein essentielles Gen, welches für ein Histon kodiert, entdeckt werden. Das Histon besitzt konservierte Lysinreste, die im eukaryotischen Histon H3 Ziele für eine posttranslationale Acetylierung sind. Für die weiteren Untersuchungen wurden die Lysinreste irreversibel zum einen in Glutamin (acetylierter Zustand) und zum anderen in Arginin (deacetylierter Zustand) mutiert. Im Rahmen dieser Arbeit wurden die Funktionen und die Einflüsse der beiden Histonmutanten sowie einer Acetylase- (delta pat1) und einer Deacetylase-Deletionsmutante (delta sir2) auf die globale Genregulation analysiert. Dazu wurden zunächst Transkriptomuntersuchungen in der exponentiellen Wachstumsphase mittels Microarray Analysen an den Mutanten im Vergleich zum Wildytp durchgeführt. Die Ergebnisse zeigten einen erheblich stärkeren Einfluß auf die Regulation der Genexpression durch das acetylierte Histon sowie der Deacetylase-Deletionsmutante im Vergleich zu den Ergebnissen des deacetylierten Histons und der Acetylase-Deletionsmutante. In der exponentiellen Wachstumsphase liegt das Histon in H. volcanii daher in überwiegend deacetylierter Form vor. Durch die Analysen konnte auch demonstrieren werden, dass Sir2 und das Histon eine regulatorische Wirkung auf exakt die gleichen Gene ausüben und daher unmittelbar miteinander in Verbindung stehen. Die experimentelle Bestätigung dieses Zusammenhangs stellt im Reich der Archaea bisher ein absolutes Novum dar. Die Untersuchungen des Transkriptoms der delta sir2 Mutante enthüllte zudem einen positiven Einfluß von Sir2 auf ein größeres Gencluster (HVO_1201-25). Die Gene dieses Clusters konnten durch in silico Analysen der Chemotaxis und der Flagellenbiosynthese zugeordnet werden. Für die weitere Charakterisierung der Deletionsmutante wurden daher Untersuchungen zur Bestimmung der Motilität von H. volcanii durchgeführt. Es konnte gezeigt werden, dass die Deletion von Sir2 die Beweglichkeit und gerichtete Fortbewegung von H. volcanii in erheblichem Maße beeinflußte, während die Biosynthese der Flagellen nicht beeinträchtigt war. Die Deacetylierung spielt daher eine unmittelbar Rolle bei der Signaltransduktion und Motilität. Insgesamt konnte durch die Arbeit gezeigt werden, dass die Acetylierung und Deacetylierung von Proteinen durch Pat1 resp. Sir2 die Regulation der Genexpression beeinflußt. Dies geschieht in H. volcanii indirekt durch die posttranslationale Veränderung von internen Signalen oder direkt durch die Modulierung des Histons und die damit verbundene Änderung der DNA-Struktur.
Eine wichtige Eigenschaft des menschlichen Gehirns besteht in der Fähigkeit, flexibel auf eintreffende Reize zu reagieren und sich den Anforderungen und Veränderungen der Umwelt anzupassen. Anpassung oder Adaptation lässt sich in vielen Situationen beobachten. Beispielsweise kommt es in der Retina beim Übergang von einer sehr hellen Umgebung in eine dunkle Umgebung zu Anpassungsleistungen. Neuronale Adaptation wird in den Neurowissenschaften genutzt, um Aussagen über die Funktion bestimmter Hirnareale machen zu können. In sogenannten Adaptationsexperimenten werden Stimuli wiederholt dargeboten und die dadurch erzeugten neuronalen Antworten in verschiedenen Hirnarealen miteinander verglichen. Nimmt das Signal in einem Areal ab, dann wird daraus geschlossen, dass die Zellen in diesem Bereich an der Verarbeitung des Stimulus beteiligt waren. Wiederholte Reizdarbietung führte in zahlreichen Untersuchungen zu einer Abnahme der neuronalen Antwort. Daneben wurde jedoch auch der gegenteilige Effekt, eine Verstärkung der neuronalen Antwort, bei Wiederholung eines Reizes nachgewiesen. In der vorliegenden Arbeit wurde die Verarbeitung frequenzmodulierter Töne im auditorischen Kortex des Menschen mit Hilfe eines Wiederholungsparadigmas untersucht. Frequenzmodulationen sind eine beim Menschen noch wenig untersuchte Reizklasse, die in natürlichen Geräuschen und besonders in der menschlichen Sprache eine wichtige Rolle spielen. Ausgangspunkt dieser Arbeit war die Frage, ob sich im auditorischen Kortex des Menschen eine Sensitivität für die Richtung einer Frequenzmodulation nachweisen lässt. Dieser Frage wurde mit drei Magnetenzephalographie-Studien nachgegangen. In Studie 1 wurde ein Zwei-Ton-Paradigma angewendet. Dabei wurde in jedem Durchgang ein frequenzmodulierter Ton jeweils zwei Mal präsentiert. Lediglich die Richtung, in der der Ton abgespielt wurde, also von den niedrigen zu den hohen oder von den hohen zu den niedrigen Frequenzen, wurde variiert. Die beiden frequenzmodulierten Töne in Studie 1 hatten eine Dauer von 500 ms und wurden in einem Abstand von 1 Sekunde präsentiert. Mit dieser Versuchsanordnung sollte untersucht werden, ob es bei Wiederholung der Frequenzrichtung zu einer Abnahme des neuronalen Signals kommt. Diese Abnahme wurde vor allem in der N1m-Komponente aber auch in späteren Komponenten wie der N2m erwartet. Der Vergleich der N1m-Amplitude für den zweiten Ton zeigte jedoch nur geringe Unterschiede zwischen den Bedingungen. Die Wiederholung derselben Frequenzrichtung bewirkte nur eine schwache Abnahme des Signals. Deutliche Adaptationseffekte konnten nicht gefunden werden. Daneben zeigten sich Hemisphärenunterschiede bei der Verarbeitung der frequenzmodulierten Töne. Über den Sensoren der rechten Hemisphäre war die Antwort signifikant stärker ausgeprägt als über der linken Hemisphäre. Als mögliche Erklärung für die schwach ausgeprägten Adaptationseffekte in Studie 1 wurde der zeitliche Aufbau des Paradigmas herangezogen. In der zweiten Studie wurde daher sowohl die Dauer der präsentierten Stimuli als auch der zeitliche Abstand zwischen den beiden Tönen reduziert. Dieses Paradigma führte zu signifikanten Unterschieden in der Reaktion auf den zweiten Reiz. Entgegen der Erwartung einer Adaptation bei Reizwiederholung bewirkte die Wiederholung derselben Frequenzrichtung eine signifikant höhere neuronale Antwort im Vergleich zu der Präsentation einer abweichenden Frequenzrichtung. Diese Unterschiede traten auf der rechten Hemisphäre über einen Zeitraum von 150 bis 350 ms nach Beginn des zweiten Stimulus auf, während sich auf der linken Hemisphäre 200 bis 300 ms nach Beginn des zweiten Tons signifikante Unterschiede zwischen gleichen und unterschiedlichen Frequenzrichtungen zeigten. In der N1m-Amplitude zeigten sich dagegen keine Wiederholungseffekte. Ähnlich wie in Studie 1 traten auch in Studie 2 Hemisphärenunterschiede auf. Für die Sensoren der rechten Hemisphäre waren die Verstärkungseffekte stärker und über einen längeren Zeitraum zu beobachten. Das unerwartete Ergebnis von Studie 2 stellte die Motivation für den Aufbau der dritten Studie dar. Mithilfe dieser Studie sollte überprüft werden, welche Rolle das Inter-Stimulus-Intervall auf die Verarbeitung eines nachfolgenden Stimulus hat. Zu diesem Zweck wurde in Studie 3 die Länge des ISIs zwischen 100 und 600 ms variiert. Damit sollte zum einen überprüft werden, innerhalb welchen zeitlichen Bereichs es zu einer Verstärkung des Signals kommt und wann beziehungsweise ob es ab einem bestimmten zeitlichen Abstand zwischen den Stimuli zu Adaptationsprozessen kommt. Bei dem kürzesten ISI von 100 ms führte die Wiederholung derselben Frequenzrichtung zu einer signifikant stärkeren N1m-Amplitude als bei der Präsentation einer abweichenden Frequenzrichtung. Bei ISIs > 100 ms zeigte sich keine höhere N1m-Amplitude mehr bei Wiederholung derselben Frequenzrichtung. Deutliche späte Effekte wie sie in Studie 2 über einen Zeitbereich von 150 bis 300 ms nachgewiesen wurden, traten in Studie 3 nicht auf. Bei einem ISI von 300 bis 500 ms waren leichte Verstärkungseffekte in einem Zeitbereich von 200 bis 400 ms zu beobachten. Bei einem ISI von 600 ms zeigten sich keine Unterschiede zwischen den Bedingungen. Durch Studie 3 konnte der in Studie 2 gefundene Effekt in einen größeren Zusammenhang gestellt werden. Zu einer Verstärkung der N1m-Komponente kommt es lediglich bei einem ISI von 100 ms. Liegen die Stimuli 200 ms auseinander, findet eine Verstärkung der späteren Komponenten statt, die bei ISIs > 200 ms immer weiter abnimmt. Offen bleibt, welche Abläufe zu der Verstärkung des Signals bei Wiederholung der Frequenzrichtung geführt haben. Um die dem Verstärkungseffekt zugrunde liegenden Prozesse zu verstehen, sind weitere Studien nötig.
In der vorliegenden Arbeit wurden 494 endodontisch behandelte Zähne aus der studentischen Ausbildung des Zentrums der Zahn-, Mund- und Kieferheilkunde der Universität Frankfurt am Main retrospektiv ausgewertet und eine Langzeitprognose erhoben. Die Überlebenszeit der Zähne wurde bezüglich des Einflusses der Behandlungsparameter auf die Prognose analysiert. Die Auswahl der Patientenfälle erfolgte nach dem Zufallsprinzip. Jede begonnene Wurzelkanalbehandlung kam unabhängig von der Ausgangssituation zur Auswertung, sofern ein vorgegebenes standardisiertes Behandlungsprotokoll zur Anwendung kam. Im Unterschied zu vielen Studien wurde die Extraktion als Misserfolg gewertet und als finales Ereignis definiert. Vom Patientenpool in dieser Arbeit wurden die Parameter Alter, Geschlecht, behandelter Zahn, radiologische und klinische Ausgangssituation, Ausgangsbefunde und Diagnose, Kofferdamverwendung, Sitzungen, provisorische Füllungen, Stiftinsertion und prothetische Versorgungen erfasst und der Überlebensanalyse nach Kaplan-Meier zugeführt. Die Irrtumswahrscheinlichkeit wurde mit dem Log-Rang-Test ermittelt und ausgewertet. Bei 449 Patienten wurde die Wurzelkanalbehandlung nach vorgegebener standardisierter Therapie mit manueller Aufbereitung und lateraler Kondensation unter Verwendung des Sealers AH Plus® oder AH 26® (Dentsply DeTrey, Konstanz) durch unterschiedliche Behandler abgeschlossen. In 55 Fällen wurde eine Revisionsbehandlung durchgeführt. 45 Zähne wurden aus unterschiedlichen Gründen vor Beendigung der Therapie extrahiert. Diese Gruppe wurde mit den übrigen Zähnen bezüglich der Parameter der Therapie verglichen, um Gründe für die vorzeitige Zahnentfernung offen zulegen. Der Nachuntersuchungszeitraum umfasste bis zu 21 Jahren. Die Recall-Rate erreichte 58,1% bei einer Nachkontrollzeit von 5 Jahren und 25,6% bei 10 Jahren und liegt damit auf hohem Niveau. Die durchschnittliche Überlebenswahrscheinlichkeit der Zähne lag bei 76% nach 5 Jahren und 44% nach 20 Jahren. Statistisch signifikant mehr Extraktionen vor Beendigung der Wurzelkanalbehandlung fanden sich bei Molaren, bei Perkussionsempfindlichkeit vor Trepanation, bei symptomatischen Zähnen mit LEO, bei Therapie ohne Kofferdamverwendung, bei mehr als 10 Sitzungen mit anschließendem provisorischem Verschluss sowie bei Frauen. Hinsichtlich der Unterschiede in der Überlebenserwartung erwiesen sich nur die Parameter Altersstruktur und Stift- beziehungsweise Einzelkronenversorgung als signifikant. Die Zähne in der Gruppe der 41 bis 60-Jährigen zeigten eine deutlich bessere Überlebenswahrscheinlichkeit als die Zähne der Patientengruppe der 61 bis 80-Jährigen. Mit Einzelkrone versorgte Zähne zeigten einen signifikant besseren Langzeiterfolg unabhängig von einer Versorgung mit Wurzelkanalstift. Alle übrigen ausgewerteten Parameter des Ausgangszustandes, der Wurzelkanalbehandlung sowie die Diagnose der einzelnen Zähne waren hinsichtlich des Unterschiedes der Überlebenswahrscheinlichkeit nicht signifikant. Diese Studie ermittelte die Überlebenswahrscheinlichkeit von endodontisch behandelten Zähnen aus der studentischen Ausbildung. Für die angewandte Standardtherapie wurde eine Erfolgsangabe ermittelt, welche zukünftige Vergleiche mit Therapiealternativen zulässt. Die Ergebnisse dieser Studie ermitteln die postendodontische Versorgung als den wesentlichen Parameter für den Langzeiterfolg wurzelkanalbehandelter Zähne. Auf diesem Gebiet sollte deshalb weiter Forschung betrieben werden.
An chemischen Synapsen diffundieren von der präsynaptischen Nervenendigung ausgeschüttete Neurotransmitter durch den synaptischen Spalt und aktivieren Rezeptormoleküle in der postsynaptischen Plasmamembran. Eine schnelle und zuverlässige Kommunikation an Synapsen bedingt, dass die Rezeptoren in Clustern direkt gegenüber den aktiven Zonen der Präsynapsen angereichert sind. Eine hohe Rezeptorendichte in der postsynaptischen Membran wird durch sog. Gerüstproteine, die mit den Rezeptormolekülen assoziieren, erreicht. Bisher wurden für verschiedene Synapsen unterschiedliche Gerüstproteine identifiziert. An glutamatergen Synapsen werden Rezeptoren durch u.a. das Postsynaptic Density 95 (PSD 95)-Protein, an cholinergen Synapsen durch Rapsyn, und an GABAergen und glyzinergen Synapsen durch Gephyrin verankert. An inhibitorischen Synapsen wurde bisher ausschliesslich Gephyrin als Ankerprotein für Glyzin- und GABAARezeptoren identifiziert. An exzitatorischen glutamatergen Synapsen dagegen regulieren weitere Gerüstproteine wie Shank, Homer und das Glutamatrezeptor interagierende Protein (GRIP) die Lokalisation, den Transport und die Stabilität verschiedener Glutamatrezeptor- Subtypen. Gephyrin wurde ursprünglich als peripheres Membranprotein zusammen mit dem Glyzin-rezeptorkomplex aufgereinigt. Es bindet an die große intrazelluläre Schleife der ß-Untereinheit des Glyzinrezeptors. Experimente mit Antisense-Oligonukleotiden und Gephyrin-defizienten Mäusen zeigten, dass Gephyrin essentiell für die synaptische Lokalisation von Glyzinrezeptoren und α2- und γ2-Untereinheiten enthaltenden GABAARezeptoren ist. Die Rezeptorlokalisation an der Synapse wird durch eine stabile Verankerung des Gephyrin-Gerüstes am Zytoskelett gewährleistet. Die Gerüstbildung erfolgt durch die Oligomerisierung zweier Gephyrin-Domänen, der aminoterminalen G-Domäne und der carboxyterminalen E-Domäne, wodurch ein hexagonales Gephyrinnetzwerk entsteht, welches für die Clusterbildung an der Synapse notwendig ist. Live-imaging Studien in Neuronenkulturen zeigten, daß an Rezeptor-Transportvesikel gebundenes Gephyrin kontinuierlich an und von aktiven Synapsen weg transportiert wird, was eine hochdynamische Modulation des Gephyrin-Gerüsts nahelegt. Der retro- und anterograde Transport von Gephyrin wird durch Dynein bzw. Kinesin bewerkstelligt. Einige zytosolische Proteine wie Profilin, das Mena/Vasodilator-stimulierte Phosphoprotein (VASP) und Collybistin (Cb) spielen in der Zytoskelett-Regulation eine Rolle und interagieren mit Gephyrin. Cb ist notwendig für die Gephyrin-Clusterbildung an bestimmten GABAergen Synapsen. Im Hippocampus Cb-defizienter Mäuse befindet sich kein Gephyrin an den Postsynapsen. Cb gehört zur Familie der Guanin-Nukleotid-Austauschfaktoren (GEF), die durch eine DH-PH (Dbl Homologie-/Pleckstrin-Homologie) Tandem-Domäne charakterisiert sind und existiert in zwei Spleißvarianten, CbI und CbII. Die DH-Domäne aktiviert spezifisch das kleine G-Protein Cdc42, und die PH-Domäne interagiert mit Phosphoinositol-3-Phosphat (PI3P). In vitro-Studien haben gezeigt, dass die Interaktion von Gephyrin mit Cb II eine Reduktion der GEF-Aktivität für Cdc42 bewirkt. Basierend auf diesen Resultaten wurde vorgeschlagen, dass Gephyrin die Cdc42-Aktivierung durch Cb beendet. Dieser Mechanismus könnte für die initiale Bildung inhibitorischer Synapsen notwendig sein. Analysen mit Domänen-deletierten Cb-Konstrukten zeigten, dass sowohl die DH- als auch die PH-Domäne für die Bildung von submembranären Gephyrin-Microclustern an der Plasmamembran notwendig sind. In dieser Arbeit wurde der Mechanismus der Gephyrin-Gerüstbildung durch Cb weiter untersucht. Insbesondere wurde geklärt, inwiefern Cdc42-Aktivierung bzw. PI3P-Bindung durch Cb an der Gephyrin-Gerüstbildung beteiligt ist. Zusätzlich wurde anhand einer eigens erzeugten GFP-Gephyrin transgenen Maus untersucht, ob sich die Stabilität des Gephyrin-Gerüsts während der Differenzierung ändert und in die Regulation der Stabilität und Plastizität inhibitorischer Synapsen involviert ist. Die Rolle von Cdc42 in der Gephyrin-Gerüstbildung wurde mittels einer konstitutiv aktiven Spleißvariante von Cb untersucht. Basierend auf Homologien zu anderen bereits charakterisierten GEFs und der publizierten Kristallstruktur des CbII-Cdc42 Komplexes wurden Aminosäurereste in der DH-Domäne von Cb mutiert, um die Cdc42-Aktivierung zu unterbrechen (CB T61A, K192A und NE232-233AA). In vitro GTPase-Aktivierungsassays und Filopodien-Induzierung in NIH-3T3-Zellen bestätigten, dass diese Mutationen die Cdc42-Aktivierung reduzierten bzw. aufhoben. Dennoch induzierten sie die Gephyrin-Gerüstbildung in heterologen Zellen und hippocampalen Neuronen ähnlich effektiv wie Wildtyp-Cb II. Die Rolle von Cdc42 in der synaptischen Gephyrin-Clusterbildung wurde außerdem in konditionell Cdc42-defizienten Mäusen, in denen das Cdc42-Gen selektiv im Vorderhin inaktiviert wurde, untersucht. Die Dichte von Gephyrin- und das GABAA-Rezeptor-Clustern war bei Verlust von Cdc42 im Hippocampus nicht verändert. Dies steht im Gegensatz zu einem fast 80%igen Verlust von Gephyrin- und GABAA-Rezeptor-Clustern im Hippocampus von Cb-defizienten Mäusen. Diese Ergebnisse zeigen, dass Cdc42 für die Gephyrin-Gerüstbildung an inhibitorischen Synapsen nicht notwendig ist. Die Rolle der PH-Domäne von Cb bei der Gephyrin-Clusterbildung wurde ebenfalls durch Mutagenese-Experimente analysiert. Viele PH-Domänen haben die Fähigkeit, Phosphoinositide zu binden und damit Membranbindung zu vermitteln, während andere PHDomänen, die nicht an Phosphoinositide binden, nur nach Bindung weiterer Liganden mit Membranen assozieren. In früheren Arbeiten war gezeigt worden, dass humanes Cb PI3P bindet. Hier wurde eine mögliche Beteiligung von Phospholipid-Bindung an der Gephyrin-Gerüstbildung durch Substitution zweier basischer Reste in der β3- und β4- Schleife, R303 und R304, mit Asparaginen untersucht. Ein Lipid-Dot-Blot-Assay mit der Cb II-RR303-304NN-Mutante zeigte einen völligen Verlust der PI3P-Bindung in vitro. Die Expression dieser Mutante in heterologen Zellen und hippocampalen Neuronen zeigte, dass die Gerüstbildung und die synaptische Lokalisation von Gephyrin Phosphoinositidbindung erfordern. Zusammenfassend zeigen diese Ergebnisse, dass die Aktivierung von Cdc42, nicht aber die PI3P- Bindung, für die Cb II-vermittelte Gephyrin-Gerüstbildung entbehrlich ist. Cb hat also zumindest zwei biologische Funktionen: Einerseits ist die DH-Domänen vermittelte Aktivierung von Cdc42 notwendig für die Regulation des Aktinzytoskeletts und die Bildung von Filopodien; andererseits wird die PH-Domänen-abhängige und Cdc42-unabhängige Phospholipidbindung für die Gephyrin-Gerüstbildung an inhibitorischen Postsynapsen benötigt. Um die Dynamik von Gephyrin an inhibitorischen Synapsen zu untersuchen, wurde eine transgene Maus entwickelt, welche GFP-Gephyrin unter der Kontrolle des Neuronspezifischen Thy1-Promotors exprimiert. In verschiedenen Hirnregionen der transgenen Mauslinie, wie Hippocampus, Stammhirn, Rückenmark und Kortex, wurde punktuelle synaptische GFP- Fluoreszenz beobachtet. Diese GFP-Gephyrin-Fluoreszenz kolokalisierte mit einem inhibitorischen Präsynapsenmarker, dem vesikulären inhibitorischen Aminosäuretransporter (VIAAT). Immunfärbungen von Hirnschnitten mit Gephyrin-spezifischen Antikörpern zeigten, daß die durchschnittliche Größe und Dichte der GFP-Gephyrin-Cluster mit denen endogener Gephyrin-Cluster identisch waren. Eine Western-Blot Analyse inhibitorischer synaptischer Proteine zeigte keinen Unterschied zwischen Thy1-GFP-Gephyrin- und Wildtyp-Mäusen auf, ebensowenig wie elektrophysiologische Untersuchungen von GFP-Gephyrin-positiven und -negativen Neuronen. Sowohl die durchschnittliche Amplitude der mIPSCs als auch deren Frequenz waren nicht signifikant verändert, was dafür spricht, dass die transgene Expression von GFP- Gephyrin keine funktionellen Veränderungen verursacht. Verhaltensversuche zeigten gleiche Ergebnisse für Thy1-GFP-Gephyrin und WTMäuse. Daher kann die GFP-Gephyrin-Maus als verlässliche Reporterlinie für Studien zur Gephyrin-Dynamik an inhibitorischen Synapsen im Hippocampus und in einigen anderen Hirnregionen eingesetzt werden. Die Dynamik des synaptischen Gephyrin-Gerüsts wurde an inhibitorischen Postsynapsen in organotypischen entorhinal-hippocampalen Schnittkulturen aus GFPGephyrin-Mäusen untersucht. Fluorescence Recovery after Photobleaching (FRAP)-Analysen individueller GFP-Gephyrin-Cluster in 1-Woche- und 4-Wochen-alten Kulturen zeigten eine entwicklungsabhängige Stabilisierung der GFP-Gephyrin-Cluster auf. Diese Stabilisierung ist eng verbunden mit einer Größenzunahme der Gephyrin-Cluster an GABAergen Synapsen. Mit elektrophysiologischen Ableitungen wurde eine Reifung der GABAergen synaptischen Übertragung ebenfalls während dieser Periode beobachtet. Die Stabilisierung und Grössenzunahme des Gephyrin-Gerüsts spiegelte sich in einer erhöhten miniature inhibitory postsynaptic current (mIPSC)- Amplitude wieder. Außerdem wies die Zunahme der mIPSCFrequenz auf eine effiziente Reifung der präsynaptischen Endigungen hin, die immunhistochemisch durch eine Zunahme der VIAAT-Immunfluoreszenz erhärtet werden konnte. Ein möglicher Einfluss der GABAergen, synaptischen Aktivität auf die Grösse und Stabilität der Gephyrin-Cluster wurde in reifen Neuronenkulturen durch pharmakologische Modulation der GABAA-Rezeptoren untersucht. Die Behandlung 4-Wochen-alter Kulturen mit GABAA-Rezeptor-Antagonisten und mit dem potenzierenden Benzodiazepin Diazepam zeigte eine homöostatische Regulation der Stabilität und Größe des Gephyrin-Gerüsts durch die Aktivität inhibitorischer Synapsen auf. Zusammenfassend sind diese Resultate starke Hinweise für dynamische Veränderungen in synaptischen Gephyrin-Gerüsten während der Reifung und Aktivitäts-induzierten Plastizität GABAerger Synapsen
Selektive COX-2-Inhibitoren wie Rofecoxib und Celecoxib haben sich im klinischen Alltag bewährt, da sie im Gegensatz zu den herkömmlichen NSAIDs wie ASS oder Ibuprofen weniger gastrointestinale Komplikationen verursachen. Jedoch wurde in klinischen Studien ein erhöhtes Risiko für das Entstehen kardiovaskulärer Ereignisse nachgewiesen, was zur Stigmatisierung der selektiven COX-2 Inhibitoren und zu einer strengenIndikationstellung von Celecoxib führte. Verschiedene Studien, welche den - 765G>C SNP des PTGS2-Promotorgens untersuchten, kamen zu konträren Ergebnissen. Einerseits wurde bei Trägern des SNP eine verminderte COX-2- Proteinexpression und im Rahmen dieser Studie ein protektiver Effekt für das Entstehen kardiovaskulärer Ereignisse atherosklerotischer Genese beschrieben. Andererseits gab es Ergebnisse klinischer Studien, die bei Trägern des SNP eine erhöhte COX-2-Expression zeigten. Das Ziel der Studie war es herauszufinden, ob bei Trägern der Mutation nach COX-2-Inhibition durch Celecoxib verglichen mit Trägern der Wildtypvariante ein erhöhter, verminderter oder kein Effekt auf Prostaglandinsynthese, COX-2-Proteinexpression und COX-2-mRNA-Expression zu beobachten ist. Je 10 gesunde homozygote Träger des PTGS2 -765GG-Genotyps sowie des PTGS2 -765CC-Genotyps erhielten 200 mg Celecoxib per os, nachdem Einflüsse der COX-1 auf die Prostaglandinsynthese 24 Stunden zuvor mit der Einnahme von 500 mg ASS ausgeschlossen wurden. Blutproben wurden vor der Applikation (Referenzwert) sowie 1,3,6,9 und 24 Stunden nach der Applikation entnommen. Mittels LC-MS/MS wurden die Plasmakonzentrationen von Celecoxib sowie die ex vivo PGE2-Produktion von LPS-stimulierten Monozyten des peripheren Blutes gemessen. m-RNA Expression des COX-2-Gens wurde mit real-time quantitativer PCR gemessen. Mithilfe von Western Blot-Analysen wurde die COX-2-Expression dargestellt. Ex vivo Stimulation der Blutproben führte zu einem statistisch signifikantem Anstieg der PGE2-Produktion (P<0,001) ohne Inhibition durch Celecoxib. In Anwesenheit von Celecoxib kam es zu einer reduzierten PGE2-Produktion (von 19,3±7,2 ng/ml vor Applikation [Referenzwert] zu 7,4±4,8 ng/ml nach 1 Stunde; P<0,001), welche bis 9 Stunden nach Applikation statistisch signifikant bestehen blieb (P 0,001). Celecoxib inhibierte die PGE2-Produktion (EC 50%) bei einer Konzentration von 155,1 ng/ml bei Trägern der homozygoten Wildtypvariante sowie bei einer Konzentration von 186,6 ng/ml bei Trägern der homozygoten Allelvariante, was statistisch nicht signifikant war (P=0,36). Die Referenzwerte der PGE2-Produktion sowie die AUCs der PGE2-Konzentration in Bezug zur Zeit, ähnelten sich zwischen den Genotypen (P>0,28). LPS führte zu einer Hochregulation der COX-2 mRNAExpression (P=0,016), was jedoch unabhängig vom Genotyp war. Die COX-2-Proteinexpression zeigte bei beiden Genotypen keinen Unterschied (P=0,63). Ein Unterschied zwischen den Genotypen konnte weder auf Ebene der Prostaglandinproduktion ex vivo, noch auf Ebene der COX-2-Proteinexpression und mRNA-Expression nachgewiesen werden. Das Resultat dieser Studie steht weder zu den Ergebnissen der einen, noch zu den Ergebnissen der anderen Seite in komplettem Kontrast. Dass zur Zeit ungenügende Wissen über die Rolle der PTGS2-Mutationen ist vielmehr Ausdruck dieser konträren Studienergebnisse.
Laut BQS (Bundesgeschäftsstelle Qualitätssicherung) nimmt die Anzahl der durchgeführten Hüftendoprothesenerstimplantationen kontinuierlich zu (2006: 146.853; 2008: 157.350), bedingt nicht zuletzt durch die demographische Entwicklung (zunehmende Alterung der Gesellschaft). Die auftretenden Komplikationen nach solchen Operationen legen es nahe, an einer weiteren Optimierung des Behandlungsverfahrens zu arbeiten. Dabei wurde bisher kaum untersucht, inwieweit bei einer Hüftprothesenimplantation das Rotationsprofil der unteren Extremität die Prothesenauswahl bzw. die Prothesengestalt beeinflussen sollte. Das Resultat der Messung anthropometrischer Rotationsverhältnisse durch Bestimmung des Antetorsionswinkels (AT oder ATWinkel) und Unterschenkelrotationswinkels (UR oder UR-Winkel) an der unteren Extremität und deren Inbezugsetzung zueinander wird in dieser Studie „Rotationsprofil“ genannt. Ein solches Rotationsprofil wird allerdings in der CT-basierten Individualendoprothetik des Hüftgelenks routinemäßig erhoben und sein Ergebnis in die Prothesenrekonstruktion oder -auswahl eingearbeitet. Der Grund für diese Vorgehensweise liegt in der Überlegung, dass es – bei einer wie üblich vorgenommenen Ausrichtung z. B. einer Geradschaftprothese an der Kniekondylenebene – unter Umständen postoperativ zu einer tatsächlichen Retrotorsion bzw. zu Einschränkungen des Bewegungsumfangs im Hüftgelenk kommen kann. Theoretisch ist in extremen Fällen nicht nur eine Luxation des Hüftkopfs vorstellbar, sondern auch eine mittelfristig induzierte Lockerung der Prothese, bedingt durch eine suboptimale Anpassung des ATWinkels im Rahmen der Planung des Prothesendesigns, und damit eine veränderte Krafteinleitung in das proximale Femur. In der hier vorgestellten Studie wird anhand eines größeren Patientenkollektivs, bei dem die Indikation für eine Hüftgelenksprothese aufgrund einer primären oder sekundären Coxarthrose gestellt worden war, das Rotationsprofil an der betroffenen Extremität im CT ermittelt. In dem Patientenkollektiv sollte zunächst eine mögliche geschlechtsspezifische Beziehung zwischen den Variablen AT und UR nachgewiesen werden. Erstmalig wurde eine Analyse des Rotationsprofils in verschiedenen Subgruppen hinsichtlich des Alters (vier Subgruppen) und der Größe des Antetorsionswinkels (fünf Subgruppen) durchgeführt. Es wurde die Hypothese überprüft, ob ein hoher AT-Winkel mit einem hohen UR-Winkel korreliert.
In der Doktorarbeit wurde ein Verfahren zur Ermittlung der Schwerpunkthöhe eines Fahrzeugs aus den Messwerten von Sensoren, die serienmäßig in vielen geländegängigen Fahrzeugen verbaut sind, entwickelt. Dieses Verfahren benötigt nur die Signale von Sensoren des elektronischen Stabilitätssystems (ESP) und eines Fahrwerks mit Luftfeder. Um die Höhe des Schwerpunkts zu bestimmen, wurde ein Modell entworfen, das die Drehbewegung des Fahrzeugs um seine Längsachse beschreibt. Eine der unbekannten Größen in diesem Modell ist das Produkt m_g\Deltah, wobei mit m_g die gefederte Masse des Fahrzeugs und mit Deltah der Abstand zwischen dem Schwerpunkt und der Wankachse des Fahrzeugs bezeichnet wird. Die Höhe des Schwerpunkts wird berechnet, indem zu diesem Abstand der als bekannt vorausgesetzte Abstand der Wankachse von der Straße addiert wird. Es wurden drei Varianten des Modells betrachtet. Die eine Modellvariante (stationäres Modell) beschreibt das Fahrzeugverhalten nur in solchen Fahrsituationen exakt, in denen die Wankgeschwindigkeit und die Wankbeschleunigung vernachlässigbar klein sind. In dieser Modellvariante wurden die Federkräfte mit einem detaillierten Modell der Luftfeder berechnet. Eine Eingangsgröße dieses Modells ist der Druck in den Gummibälgen der Luftfeder. Um diesen Druck zu ermitteln, wurde ein Algorithmus auf dem Steuergerät des Luftfedersystems implementiert. Um die Genauigkeit des Luftfedermodells zu testen und um die Abmessungen bestimmter Bauteile der Luftfeder zu ermitteln, wurden Messungen am Federungsprüfstand durchgeführt und eine Methode entwickelt, wie aus diesen Messungen die gesuchten Größen berechnet werden können. Bei den zwei übrigen Modellvarianten (dynamisches Modell) gelten die Einschränkung für die Fahrsituationen nicht. Die einzelnen Varianten des dynamischen Modells unterscheiden sich darin, dass das eine Mal die Feder- und Dämpferkonstanten als bekannt vorausgesetzt und das andere Mal aus den Sensorsignalen geschätzt werden. Passend zu jeder Modellvariante wurde ein Verfahren gewählt, mit dem Schätzwerte für das Produkt m_g\Deltah berechnet wurden. Des Weiteren wurde auch eine Methode entwickelt, mit der die Masse mg geschätzt wurde, ohne zuvor ein Wert für das Produkt m_g\Deltah zu ermitteln. Die Schätzwerte wurden unter Verwendung von Daten ermittelt, die bei einer Simulation und bei Messfahrten gewonnen worden sind. Das Ergebnis des Vergleiches der betrachteten Modellvarianten ist, dass die eine Variante des dynamischen Modells zum Teil falsche Werte für m_g\Deltah liefert, weil die Modellgleichungen ein nicht beobachtbares System bilden. Die andere Variante dieses Modells liefert nicht bei jeder Beladung exakte Werte, was vor allem daran liegt, dass in den Modellgleichungen dieses Modells ein konstanter Wert für die Federsteifigkeit angenommen wird. Bei Fahrzeugen mit Luftfeder ändert sich jedoch dieser Wert in Abhängigkeit von der Fahrzeugmasse. Die Werte von m_g\Deltah und mg können am genauesten mit dem stationären Modell ermittelt werden. Des Weiteren wurden Methoden entwickelt, die die Genauigkeit der durch den Schätzalgorithmus ermittelten Werte verbessern. So wurde zusätzlich zu dem Produkt m_g\Deltah und der Masse mg auch die Verteilung des Gewichtes auf die Vorder- und Hinterachse betrachtet. Es wurde ermittelt, welche Zusammenhänge zwischen dieser Verteilung und dem Produkt m_g\Deltah sowie zwischen dieser Verteilung und der Masse des Fahrzeugs bestehen. So konnte der Fehler in den Schätzwerten dieser Größen minimiert werden. Außerdem wurde auch der Zusammenhang zwischen dem Produkt m_g\Deltah und der Masse des Fahrzeugs ermittelt. Damit konnten die Schätzwerte dieser Größen genauer bestimmt werden. Aus den so gewonnenen Werten kann die Schwerpunkthöhe von einem Mercedes ML auf etwa 8cm genau berechnet werden. Diese Genauigkeit reicht aus, um das elektronische Stabilitätsprogramm auf die aktuelle Beladung des Fahrzeugs abzustimmen und damit einen Gewinn an Agilität für dieses Fahrzeug zu realisieren.
Resorbierbare Osteosynthesen haben zwar schon vor längerer Zeit Einzug in die Dysgnathiechirurgie gehalten, müssen aber immer noch dem Vorwurf der Instabilität standhalten. Die vorgelegte Arbeit vergleicht ein modernes resorbierbares Osteosynthesesystem (INION CPS) mit konventionellen Titanminiplatten in der orthognathen Chirurgie. Insgesamt wurden die 50 Patienten der Studiengruppe neu untersucht, die Patienten der Kontrollgruppe mit Titanminiplatten rekrutierten sich aus einem bereits veröffentlichten Kollektiv des Autors. Die Beurteilung der Stabilität erfolgte radiologisch anhand von Fernröntgen-Seiten-Aufnahmen durch einen Vergleich von präoperativen Aufnahmen zu postoperativen und Verlaufsaufnahmen. Die zwei Hauptgruppen wurden dann zum einen nach Verlagerungsrichtung unterteilt als auch nach Art des Eingriffs (Monomaxillär vs. Bimaxillär). Zusätzlich wurden getrennt von diesen Gruppen noch Patienten mit Lippen-Kiefer-Gaumenspalte untersucht. Diese Studie konnte zeigen, dass die Stabilität von den untersuchten resorbierbaren Platten im Besonderen von der Richtung der Verlagerung abhängt. In einigen Verlagerungsrichtungen (Impaktion, horizontale Bewegung im Oberkiefer, Unterkiefervorverlagerung) sind die resorbierbaren Systeme gleichwertig, in anderen (Elongation, Unterkieferrückverlagerung) schneiden sie schlechter ab. Keinen Unterschied gibt es hingegen beim Vergleich der Art der Verlagerungen. Bei Risikopatienten die Vertikalbewegungen benötigen sollte allerdings zu Gunsten der Sicherheit lediglich mit Titanosteosynthesen versorgt werden. Eine Reihe von Studien konnte jedoch zeigen, dass gerade die neuesten resorbierbaren Materialien in ihren Eigenschaften kaum hinter denen der Titanplatten zurückstehen. Allerdings trägt auch weiterhin der höhere Preis der resorbierbaren Osteosynthesen zu deren zurückhaltendem Einsatz bei. Hier ist fraglich ob sich daran mittelfristig etwas ändern wird. Im Rahmen der Fragebogenuntersuchung zeigte sich, das heute mehr denn je mit dem Patienten offen über die Veränderung die diese Eingriffe mit sich bringen gesprochen werden sollte um übersteigerte oder falsche Hoffnungen abzubauen und dem Patienten das Gefühl der Entscheidungsfreiheit und Gleichberechtigung zu geben. Unstrittig ist die Frage nach der Notwendigkeit dieser Operationen. In welchem Umfang und mit welchem Budget die modernen Verfahren wie das MRT zur Basisdiagnostik und die virtuelle Planung als Ersatz für die konventionellen Röntgenbilder Einzug halten werden bleibt abzuwarten.
Einleitung: Die allgemeine Häufigkeit der Hernien liegt bei 2 bis 4% der Bevölkerung, wobei etwa 75% Leistenhernien sind. Ziel dieser Studie war die Beschreibung der Morbidität nach standardisierter modifizierter Operation nach Lichtenstein mit Verwendung eines selbsthaftenden Netzes. Der Vergleich dieses Kollektivs mit Daten aus der Literatur, in welchen zur Behandlung einer Leistenhernie die herkömmliche Technik nach Lichtenstein angewandt wurde, stellte das sekundäre Studienziel dar. Material und Methoden: Ein von Juli 2007 bis Dezember 2007 therapiertes Patientengut aus 100 Männern und 11 Frauen des Herz-Jesu-Krankenhauses in Fulda wurde detailliert retrospektiv aufgearbeitet und mit den Ergebnissen anderer Arbeitsgruppen verglichen. Die Patienten wurden einmal nach sechs sowie ein weiteres Mal nach 12 Monaten einbestellt, untersucht und mittels standardisiertem Fragebogen zu ihrem postoperativen Verlauf befragt. Die Altersgrenzen zum Zeitpunkt der operativen Versorgung lagen bei 20 und 91 Jahren, der Altersmedian betrug 59. Die Operation nach Lichtenstein ist eines der bevorzugten Verfahren in der Leistenhernienchirurgie. Ergebnisse: Intraoperativ wurde bei 88 Patienten (79,3 %) der Nervus genitofemoralis geschont, bei 23 Patienten (20,7 %) wurde er durchtrennt. Die postoperativen Komplikationen wurden im eigenen Kollektiv unterteilt nach perioperativen (in den ersten 7 Tagen postoperativ), frühen (7. bis 28. Tag postoperativ) und späten Komplikationen (28. Tag bis 12. Monat postoperativ) erfasst. Nur bei einem Patienten kam es auf Grund eines behandlungspflichtigen Hämatoms zu einer unmittelbaren Komplikation. Kein Patient beklagte eine frühe Komplikation, jedoch kam es bei fünf Patienten zu späten Komplikationen. Vier Patienten klagten über ein Rezidiv. Die Diagnose Nervenkompressionssyndrom wurde bei insgesamt drei Patienten gestellt. Die Verbindung zu einer Durchtrennung des Nervus genitofemoralis konnte bei einem Patienten hergestellt werden. Der Median der Operationsdauer lag bei 35 Minuten. Durchschnitt (Mittelwert) betrug die Krankenhausverweildauer 2,2 Tage. Kein Patient verstarb im postoperativen Verlauf. Schlussfolgerung: Die in dieser Arbeit beschriebene modifizierte Lichtenstein-Technik ist eine Innovation der Hernienchirurgie. Der Einsatz eines teilresorbierbaren und selbstfixierenden Zweikomponenten-Maschengewebe aus monofilem Polypropylen und Polylaktatsäure stellt eine kleine Revolution der operativen Versorgung von Leistenhernien dar. Die ersten Ergebnisse zeigen im Vergleich mit Literaturangaben, dass insgesamt mit einer ähnlichen perioperativen Komplikationsrate zu rechnen ist. Momentan liegen erst Einjahreszahlen vor, daher muss auf eine abschließende Beurteilung, vor allem der postoperativen Schmerzsymptomatik sowie Rezidivrate, zum jetzigen Zeitpunkt verzichtet werden. Erfreulich ist das Fehlen von intraoperativen Komplikationen im eigenen Krankengut. Auch erscheint eine deutliche Reduktion der Operationsdauer bei mit der Technik vertrauten Operateuren möglich zu sein. Eine statistisch signifikante Reduktion der Rezidivhäufigkeit nach Lichtenstein-Eingriff konnte durch die neue Technik noch nicht beobachtet werden. Zur Zeit sind die in der Literatur beschriebenen Rezidivraten noch auf einem ähnlichen Niveau. Abschließend zeigt die Beurteilung der selbst erhobenen Daten und ihr Vergleich mit den angeführten Studien, dass der Einsatz eines selbsthaftenden Netzes bedenkenlos als Alternative zur Fixierung mittels Fibrinkleber, Naht- oder Klammermaterial empfohlen werden kann.
In dieser Arbeit wird die Verteilung von zeitlich abhängigen Tasks in einem verteilten System unter den Gesichtspunkten des Organic Computing untersucht. Sie leistet Beiträge zur Theorie des Schedulings und zur selbstorganisierenden Verteilung solcher abhängiger Tasks unter Echtzeitbedingungen. Die Arbeit ist in zwei Teile gegliedert: Im ersten Teil werden Tasks als sogenannte Pfade modelliert, welche aus einer festen Folge von Aufträgen bestehen. Dabei muss ein Pfad ununterbrechbar auf einer Ressource ausgeführt werden und die Reihenfolge seiner Aufträge muss eingehalten werden. Natürlich kann es auch zeitliche Abhängigkeiten zwischen Aufträgen verschiedener Pfade geben. Daraus resultiert die Frage, ob ein gegebenes System S von Pfaden mit seinen Abhängigkeiten überhaupt ausführbar ist: Dies ist genau dann der Fall wenn die aus den Abhängigkeiten zwischen den Aufträgen resultierende Relation <A irreflexiv ist. Weiterhin muss für ein ausführbares System von Pfaden geklärt werden, wie ein konkreter Ausführungsplan aussieht. Zu diesem Zweck wird eine weitere Relation < auf den Pfaden eingeführt. Falls < auf ihnen irreflexiv ist, so kann man eine Totalordnung auf ihnen erzeugen und erhält somit einen Ausführungsplan. Anderenfalls existieren Zyklen von Pfaden bezüglich der Relation <. In der Arbeit wird weiterhin untersucht, wie man diese isoliert und auf einem transformierten Pfadsystem eine Totalordnung und damit einen Ausführungsplan erstellt. Die Größe der Zyklen von Pfaden bezüglich < ist der wichtigste Parameter für die Anzahl der Ressourcen, die für die Ausführung eines Systems benötigt werden. Deshalb wird in der Arbeit ebenfalls ausführlich untersucht, ob und wie man Zyklen anordnen kann, um die Ressourcenzahl zu verkleinern und somit den Ressourcenaufwand zu optimieren. Dabei werden zwei Ideen verfolgt: Erstens kann eine Bibliothek erstellt werden, in der generische Zyklen zusammen mit ihren Optimierungen vorliegen. Die zweite Idee greift, wenn in der Bibliothek keine passenden Einträge gefunden werden können: Hier erfolgt eine zufällige oder auf einer Heuristik basierende Anordnung mit dem Ziel, den Ressourcenaufwand zu optimieren. Basierend auf den theoretischen Betrachtungen werden Algorithmen entwickelt und es werden Zeitschranken für ihre Ausführung angegeben. Da auch die Ausführungszeit eines Pfadsystems wichtig ist, werden zwei Rekursionen angegeben und untersucht. Diese schätzen die Gesamtausführungszeit unter der Bedingung ab, dass keine Störungen an den Ressourcen auftreten können. Die Verteilung der Pfade auf Ressourcen wird im zweiten Teil der Arbeit untersucht. Zunächst wird ein künstliches Hormonsystems (KHS) vorgestellt, welches eine Verteilung unter Berücksichtigung der Eigenschaften des Organic Computing leistet. Es werden zwei Alternativen untersucht: Im ersten Ansatz, dem einstufigen KHS, werden die Pfade eines Systems direkt durch das KHS auf die Ressourcen zu Ausführung verteilt. Zusätzlich werden Mechanismen zur Begrenzung der Übernahmehäufigkeit der Pfade auf den Ressourcen und ein Terminierungs-mechanismus entwickelt. Im zweiten Ansatz, dem zweistufigen KHS, werden durch das KHS zunächst Ressourcen exklusiv für Klassen von Pfaden reserviert. Dann werden die Pfade des Systems auf genau den reservierten Ressourcen vergeben, so dass eine Ausführung ohne Wechselwirkung zwischen Pfaden verschiedener Klassen ermöglicht wird. Auch hierfür werden Methoden zur Beschränkung der Übernahmehäufigkeiten und Terminierung geschaffen. Für die Verteilung und Terminierung von Pfaden durch das einstufige oder zweistufige KHS können Zeitschranken angegeben werden, so dass auch harte Echtzeitschranken eingehalten werden können. Zum Schluss werden beide Ansätze mit verschiedenen Benchmarks evaluiert und ihre Leistungsfähigkeit demonstriert. Es zeigt sich, dass der erste Ansatz für einen Nutzer einfacher zu handhaben ist, da die benötigten Parameter sehr leicht berechnet werden können. Der zweite Ansatz ist sehr gut geeignet, wenn eine geringe Anzahl von Ressourcen vorhanden ist und die Pfade verschiedener Klassen möglichst unabhängig voneinander laufen sollen. Fazit: Durch die in dieser Arbeit gewonnenen Erkenntnisse ist jetzt möglich, mit echtzeitfähigen Algorithmen die Ausführbarkeit von zeitlich abhängigen Tasks zu untersuchen und den Ressourcenaufwand für ihre Ausführung zu optimieren. Weiterhin werden zwei verschiedene Ansätze eines künstlichen Hormonsystems zur Allokation solcher Tasks in einem verteilten System bereit gestellt, die ihre Stärken unter jeweils verschiedenen Randbedingungen voll entfalten und somit ein breites Anwendungsfeld abdecken. Für den Rechenzeitaufwand beider Ansätze können Schranken angegeben werden, was sie für den Einsatz in Echtzeitsystemen qualifiziert.
Semiotik der Außenkulturpolitik : Sport, Künste, Wissenschaft & Personenaustausch in der Staatenwelt
(2010)
Die P-Typ-ATPasen finden sich in allen Domänen des Lebens und stellen die größte Gruppe aktiver Ionentransporter in Zellen dar. Es handelt sich bei den P-Typ-ATPasen um integrale Membranproteine, die eine große Anzahl verschiedenster Ionen aktiv über eine biologische Membran transportieren. Die für diesen Ionentransport notwendige Energie wird durch Bindung und Hydrolyse von Adenosintriphosphat (ATP) und durch Phosphorylierung des Enzyms gewonnen. Diese, im cytoplasmatischen Teil gewonnene Energie, muss für den Ionentransport von der Phosphorylierungsstelle zur räumlich entfernten transmembranen Ionenbindungsstelle übertragen werden, bei dem das Protein einem Reaktionszyklus mit zwei Hauptkonformationszuständen E1 und E2 unterliegt. Zwischen diesen beiden Zuständen finden große strukturelle Änderungen statt, durch die die Ionenaffintät und die Zugänglichkeit der Ionenbindungsstelle reguliert wird. Da dieser Mechanismus der Energiegewinnung für alle Ionenpumpen dieser Art ähnlich ist, wurde die Ca2+-ATPase und die Na+/K+-ATPase als Modellproteine für die Untersuchung molekularer Mechanismen in P-Typ-ATPasen ausgewählt. Im Rahmen der vorliegenden Arbeit soll die Energietransduktion in P-Typ-ATPasen im Allgemeinen und der Protonengegentransport bzw. ein potentieller Protonentransportweg in der Ca2+-ATPase im Speziellen untersucht werden. Die beiden oben genannten Mechanismen sollen mittels computergestützter Methoden analysiert werden. Vor allem die Ca2+-ATPase ist prädestiniert für computergestützte Untersuchungen, da für diese sehr viele hochaufgelöste Röntgenstrukturdaten vorliegen, wenn auch bisher aufgrund der Größe und Komplexität des Systems nur sehr wenige theoretische Arbeiten durchgeführt wurden. Um den Energietransduktionsmechanismus in P-Typ-ATPasen zu untersuchen, wurde mittels Elektrostatik-Rechnungen der Einfluss eines elektrischen Feldes auf die verschiedenen Transmembranhelices untersucht. Dazu wurde ein Simulationssystem entwickelt, welches aus einem molekularen Kondensator besteht, der im Modell das Anlegen eines homogenen elektrischen Feldes über den Transmembranbereich simuliert. Da es sich bei dem Energietransduktionsmechanismus um einen dynamischen Prozess handelt, wurden die Elektrostatik-Rechnungen um Molekulardynamik-Simulationen erweitert. Mit diesen kann die konformelle Dynamik der P-Typ-ATPasen während der Energietransduktion in die Elektrostatik-Rechnungen einbezogen werden. Aus Spannungsklemmen-Fluorometrie-Experimenten, bei denen eine Spannung über eine Membran angelegt wird, kann geschlossen werden, dass die Helix M5 für die Energietransduktion verantwortlich ist. Mit den in dieser Arbeit durchgeführten Elektrostatik-Rechnungen konnte für verschiedene Enzymzustände der Ca2+-ATPase und für die Na+/K+-ATPase gezeigt werden, dass die Helix M5 die größten Konformeränderungen aufgrund des elektrischen Feldes aufweist. Durch die Erweiterung der Elektrostatik-Rechnungen um die Methode der Molekulardynamik-Simulation konnte zusätzlich die elektrische Feldstärke reduziert werden. Auch dabei zeigte sich, dass auf der Helix M5 die meisten Rotameränderungen durch das elektrische Feld induziert werden. Die aus Experimenten vermutete Rolle der Helix M5 als wichtiges Energietransduktionselement ließ sich mit diesen Simulationsrechnungen bestätigen. Um einen möglichen Protonenweg durch den Transmembranbereich der Ca2+-ATPase aufzuklären, wurden explizite Wassermoleküle in sechs verschiedene Enzymzustände der Ca2+-ATPase eingefügt. Aus Experimenten ist bekannt, dass in der Ca2+-ATPase ein Protonengegentransport stattfindet. Deshalb wurden für verschiedene Enzymzustände der Ca2+-ATPase mittels Elektrostatik-Rechnungen die Protonierungen der eingefügten Wassermoleküle sowie der titrierbaren Aminosäuren bestimmt. Aus den Ergebnissen dieser Rechnungen kann geschlossen werden, dass es sich bei dem Protonentransfer nicht um einen linearen Transport der Protonen handelt. Die Untersuchungen zeigen einen mehrstufigen Prozess, an dem Protonen in verschiedenen Transmembranbereichen der Ca2+-ATPase beteiligt sind. Anhand der berechneten Protonierungszustände der eingefügten Wassermoleküle und der pK-Werte der Aminosäuren im Transmembranbereich konnte weiterhin ein möglicher Protonenweg identifiziert werden.
Einleitung: Schwer verletzte Patienten nach Trauma (ISS > 16) sind häufig in Folge der Verletzungen über mehrere Tage beatmet. 40% dieser Patienten weisen eine Lungenkontusion auf. Mit zunehmender Beatmungsdauer steigt das Risiko einer Ventilator-assoziierten Pneumonie (VAP). Zeitgleich findet eine Reparation des Lungengewebes statt. Eine zeitnahe antiinfektive Therapie bei Verdacht auf eine VAP zu initiieren ist schwierig. Derzeit existiert kein validierter Parameter oder Score, der eine sichere Diskriminierung zwischen Infektion und Inflammation zulässt. Triggering receptor on myeloid cells (TREM-1) ist ein Rezeptor des angeborenen Immunsystems und wurde im Jahr 2000 erstmalig beschrieben. Sein löslicher Anteil, sTREM-1, ist in der bronchoalveolären Lavage (BAL) bei Patienten mit Pneumonie signifikant erhöht (> 200pg/ml). Es liegen keine Daten zu sTREM-1 bei Patienten nach Lungenkontusion vor. Unklar ist, ob sTREM-1 als Pneumonie-Marker nach Lungenkontusion geeignet ist. Material & Methoden: Nach Zustimmung der Ethikkommission und Einwilligung durch einen Angehörigen wurden prospektiv 42 Patienten mit Thoraxtrauma rekrutiert. Am ersten (im Median 15h nach dem Trauma) und an den Behandlungstagen zwei, drei, fünf, sechs und sieben wurden bei allen Patienten über den Tubus mit einem Aero-Jet Katheter BAL (20ml Spülung) gewonnen und zeitgleich Serumproben entnommen. Die Messung der sTREM-1-Konzentration erfolgte mittels Sandwich-ELISA in Doppelbestimmung (Quantikine sTREM-1 Immunoassay; Firma R&D Systems). Die Serum-Konzentrationen der Interleukine (IL) 6 und 10 sowie des Lipopolysaccharid bindenden Proteins (LBP) wurden mittels Immulite® bestimmt. Die Diagnose Pneumonie wurde retrospektiv mittels Clinical Pulmonary Infection Score (CPIS) gestellt: CPIS > 6 Pneumonie, ≤ 6 keine Pneumonie. Ergebnisse & Diskussion: 15 Stunden nach Trauma wurde der sTREM-1 Spiegel in der BAL, bei im Verlauf pulmonal klinisch unauffälligen Patienten, im Median mit 219pg/ml bestimmt. Im Weiteren stieg sTREM-1 im Median nach 24h auf 575pg/ml an und zeigte ähnliche Konzentrationen im Beobachtungszeitraum. Der Schweregrad der Lungenkontusion korreliert mit der Höhe des sTREM-1-Spiegels in der BAL 40h nach Trauma. Patienten mit schwerer Lungenkontusion (im Median 2240pg/ml) haben signifikant höhere Werte gegenüber Patienten ohne Kontusion (Median 217pg/ml), oder geringer Kontusion (Median 339pg/ml). Am Tag der Diagnosestellung Pneumonie (CPIS > 6, n= 9) zeigten die betroffenen Patienten einen signifikant erhöhten sTREM-1-Spiegel in der BAL (Median 2145pg/ml, p < 0,05) im Vergleich zum Tag vor der Pneumonie (Median 588pg/ml). Wird der cut off für sTREM-1 bei 800pg/ml festgelegt ergibt sich eine Sensitivität von 87% und eine Spezifität von 38%. Eine positive BAL weist im Vergleich zu einer negativen BAL signifikant höhere sTREM-1-Konzentrationen (Median 1492pg/ml vs. 971pg/ml, p < 0,05) auf. Die Sensitivität (85%) ist hoch, die Spezifität (51%) gering. Somit ist sTREM-1 nicht nur durch eine Infektion, sondern auch durch eine Gewebeschädigung mit Einblutung und Inflammation stimulierbar. sTREM-1 ist durch die kontusionsbedingte Stimulation in der ersten Woche nach Trauma ungeeignet, um sicher zwischen einer Pneumonie und einer kontusionsbedingten Inflammation zu unterscheiden. Zytokine und akute Phase Proteine (IL-6, LBP, Procalcitonin) sind bekanntermaßen ebenfalls nicht zur sicheren Diskriminierung einer Infektion geeignet. In Kombination mit sTREM-1 lassen sich jedoch zur Diagnosestellung einer Pneumonie vergleichbare Werte für Sensitivität und Spezifität erreichen wie mittels CPIS Score, wobei der CPIS nur retrospektiv ermittelt werden kann. Die Laborparameter liegen bereits am Tag des Verdachts auf eine Infektion vor. Die klinische Entscheidung zur Initiierung einer Antiinfekitvatherapie korrelierte weder mit dem CPIS noch mit den Inflammationsparametern. Drei von neun Patienten erhielten trotz steigenden Entzündungszeichen und einem CPIS > 6 keine Antiinfektiva. In der Konsequenz könnte eine Kombination aus IL-6 und LBP im Serum, sTREM-1 in der BAL und klinischen Parameter des CPIS eine sensitive und spezifische Entscheidungshilfe für eine antiinfektive Therapie bei Polytrauma und Verdacht auf eine VAP werden.
Die vorliegende Dissertation analysiert Großinvestorhandelsstrategien in illiquiden Finanzmärkten. Ein Großinvestor beeinflusst die Preise der Wertpapiere, die er handelt, so dass der daraus resultierende Feedbackeffekt berücksichtigt werden muss. Der Preisprozess wird durch eine Familie von cadlag Semimartingalen modelliert, die in dem zusätzlichen Parameter stetig differenzierbar ist. Ziel ist es, eine möglichst allgemeine Strategiemenge zu bestimmen, für die eine Vermögensdynamik definiert werden kann. Es sind dies vorhersehbare Prozesse von wohldefinierter quadratischer Variation entlang Stoppzeiten. Sie erweisen sich als laglad. Die Vermögensdynamikzerlegung zeigt, dass bei stetigen adaptierten Strategien von endlicher Variation (zahme Strategien) die quadratischen Transaktionskostenterme verschwinden und der Gewinnprozess nur noch aus einem nichtlinearen stochastischen Integral besteht. Es wird gezeigt, unter welchen Bedingungen gewisse Approximationen vorhersehbarer laglad Strategien durch adaptierte stetige Strategien von endlicher Variation möglich sind. Im Fall, dass der Approximationsfehler für die Risikoeinstellung des Großinvestors erträglich ist, kann er seine Investmentziele durch Verwendung dieser zahmen Strategien, Liquiditätskosten vermeidend, erreichen. In diesem Fall ist der Gewinnprozess durch das nicht-lineare stochastische Integral gegeben.
Obwohl zahlreiche zelluläre Funktionen von RNAs in direktem Zusammenhang mit Proteinen stehen, wurde auch eine Vielzahl von, unter anderem regulatorischen, RNA-Motiven identifiziert, die ihre Funktion ohne eine initiale Beteiligung von Proteinen ausüben. Das detaillierte Verständnis der zu Grunde liegenden Regulationsmechanismen beinhaltet die Charakterisierung von beteiligten RNA-Architekturen und deren funktionaler Stabilitäten, von dynamischen Aspekten der RNA-Faltungsprozesse sowie die Korrelation dieser Charakteristika mit zellulären Funktionen. Im Rahmen dieser Arbeit wurden strukturelle, thermodynamische und kinetische Aspekte der Ligand-bindenden Guanin Riboswitch-RNA Aptamerdomäne des xpt-pbuX Operons aus B. subtilis und eines Cofaktor-abhängigen katalytischen RNA-Motivs, des 'Adenin-abhängigen Hairpin Ribozyms', untersucht. ...
Die Genexpression in prokaryotischen Organismen unterliegt einer Vielzahl von Regulationsmechanismen, deren Aufgabe darin besteht, die Zelle an sich ändernde Umweltbedingungen anzupassen, um so das Überleben des prokaryotischen Organismus zu gewährleisten. Eine Reihe von Hitzeschock- und Virulenzgenen unterliegen temperaturabhängiger Regulation, mit dem Ziel, die Zelle an die sich ändernde Umgebung anzupassen. Die Messung der Temperatur erfolgt dabei über temperatursensitive RNA-Elemente, sogenannte RNA-Thermometer, die sich üblicherweise in der 5’-untranslatierten Region der Gene befinden, die sie regulieren. Sie unterdrücken die Translationsinitiation, indem sie die Shine-Dalgarno (SD)-Sequenz bei niedrigen Temperaturen über Basenpaarung blockieren und dadurch die Bindung des Ribosoms verhindern. In Kapitel 2 der vorliegenden Arbeit wurde die thermodynamische Stabilität der temperatursensitiven Haarnadelschleife 2 des Salmonella FourU RNA-Thermometers über einen breiten Temperaturbereich analysiert. Freie Enthalpie-, Enthalpie- und Entropie-Werte für die Basenpaaröffnung der einzelnen Nukleobasen innerhalb der RNA wurden über die temperaturabhängige Messung von Iminoprotonen-Austauschraten mittels NMR-Spektroskopie bestimmt. Die Austauschraten wurden für die Wildtyp-RNA und die A8C-Mutante bestimmt und miteinander verglichen. Es zeigte sich, dass die Wildtyp-RNA durch das außergewöhnlich stabile Basenpaar G14-C25 stabilisiert wird. Dies konnte durch die Untersuchung der Entfaltung der destabilisierenden G14A-C25U-Doppelmutante verifiziert werden. Über CD-spektroskopsiche Untersuchungen konnte der globale Entfaltungsübergang der jeweiligen RNA analysiert werden. Das Mismatch-Basenpaar innerhalb des Wildtyp-RNA-Thermometers (A8-G31) erwies sich als Ursache für die geringere Kooperativität des Entfaltungsübergangs der Wildtyp-RNA im Vergleich zur A8C-Mutante. Enthalpie- und Entropie-Werte für die Basenpaaröffnung einzelner Nukleotide sind für beide RNAs linear korreliert. Die Steigungen dieser Korrelationen stimmen mit den Schmelzpunkten der RNAs überein, die über CD-Spektroskopie bestimmt wurden. Entfaltung der RNA tritt also genau dann auf, wenn alle Nukleotide gleiche thermodynamische Stabilitäten besitzen. Die Resultate sind mit einem Reißverschluss-Mechanismus für die RNA-Helix Entfaltung konsistent und erklärbar, in dem die Stapelinteraktionen der benachbarten Nukleobasen innerhalb der RNA-Helix verantwortlich für die beobachtete Kooperativität sind. Die Ergebnisse weisen auch auf die Wichtigkeit der RNA-Lösungsmittel-Interaktion für die Stabilität der RNA-Struktur hin. So konnten langreichweitige Wechselwirkungen der A8C-Mutation auf die Stabilität der G14-Nukleobase identifiziert werden, die möglicherweise über die Hydrathülle der RNA vermittelt werden. Schließlich konnte für das FourU-Motiv eine Mg2+-Bindestelle identifiziert werden, die die temperaturabhängige Stabilität des RNA-Thermometers beeinflusst. Es besteht also die Möglichkeit, dass Änderungen der intrazellulären Mg2+-Konzentration die Expression des agsA-Gens in vivo modulierend beeinflussen. In Kapitel 3 dieser Arbeit wurden die dynamischen Eigenschaften des Phosphodiesterrückgrats einer perdeuterierten cUUCGg-Tetraloop-14mer-RNA untersucht. Dazu wurden die Relaxationseigenschaften aller 31P-Kerne dieser RNA bei magnetischen Feldstärken von 300, 600 und 900 MHz untersucht. Dipolare Relaxationsbeiträge konnten unterdrückt werden, indem eine perdeuterierte RNA-Probe in einem D2O-Puffer verwendet wurde. Um die 31P-Relaxationsdaten (R1, R2) interpretieren zu können, wurde zusätzlich mittels Festkörper-NMR die Chemische Verschiebungsanisotropie (CSA) der 31P-Kerne des Phosphodiesterrückgrats bestimmt. Die Messungen wurden bei verschiedenen Salzkonzentrationen und unter unterschiedlichen Hydratationsbedingungen durchgeführt. Aus den Daten konnte ein 31P-CSA-Wert von 178.5 ppm im statischen Zustand (S2 = 1) bestimmt werden. Auf der Grundlage der durchgeführten R1- und R2-Messungen wurde eine Modelfree-Analyse durchgeführt, um Informationen über die schnellen Dynamiken des Phosphodiesterrückgrats zu erhalten. Die Resultate zeigen, dass die Dynamiken des Phosphodiesterrückgrats auf der Subnanosekundenzeitskala stärker ausgeprägt sind als die Dynamiken der Ribofuranosylreste und der Nukleobasen. Des Weiteren konnte gezeigt werden, dass die Dynamik einer individuellen Phosphatgruppe zu der jeweiligen 5’-benachbarten Nukleobase korreliert ist. In Kapitel 4 dieser Arbeit wird die Entwicklung neuer Methoden beschrieben, mit denen Torsionswinkelinformation aus der Analyse kreuzkorrelierter Relaxationsraten gewonnen werden können. Im ersten Teil des Kapitels wird die Entwicklung einer neuen NMR-Pulssequenz beschrieben, über die der glykosidische Torsionswinkel Chi in 13C,15N-markierten Oligonukleotiden bestimmt werden kann. Mit dem neuen quantitativen Gamma-HCNCH-Experiment ist es möglich, die dipolaren kreuzkorrelierten Relaxationsraten Gamma-C6H6-C1´H1´ (Pyrimidine) und Gamma-C6H6-C1´H1´ (Purine) zu messen. Die kreuzkorrelierten Relaxationsraten wurden an einer 13C,15N-markierten cUUCGg-Tetraloop-14mer-RNA bestimmt. Die aus den Raten extrahierten Chi-Winkel wurden mit bereits vorhandener Strukturinformation verglichen. Sie stimmen bemerkenswert gut mit den Winkeln der Kristallstruktur des Tetraloops überein. Zusätzlich wurde die neue Methode an einer größeren 30mer-RNA, dem „Stemloop D“ (SLD) aus dem Coxsackievirus-B3-Kleeblatt, getestet. Für die SLD-RNA wurde der Effekt von anisotroper Rotationsdiffusion auf die Relaxationsraten untersucht. Es konnte gezeigt werden, dass die Chi-Winkelbestimmung besonders für Nukleotide in der anti-Konformation sehr genau ist und die Methode eine eindeutige Unterscheidung von syn- und anti-Konformation zulässt. Im zweiten Teil von Kapitel 4 wird die Entwicklung des Gamma-HCCCH-Experiments beschrieben. Hierbei handelt es sich um eine neue NMR-Pulssequenz zur Messung der Gamma-C1´H1´-C3´H3´-Rate in 13C-markierten RNAs. Die Funktionsfähigkeit der neuen Methode wurde an einer cUUCGg-Tetraloop-14mer-RNA demonstriert. Zusätzlich dazu wurden die analytischen Gamma-C1´H1´-C3´H3´(P,nü_max)-, Gamma-C1´H1´-C4´H4´(P,nü_max)- und Gamma-C2´H2´-C4´H4´(P,nü_max)-Abhängigkeiten mathematisch hergeleitet. Die an der 14mer-RNA gemessenen Gamma-C1´H1´-C3´H3´-Raten wurden mit Hilfe der Gamma-C1´H1´-C3´H3´(P,nü_max)-Beziehung analysiert. Die Ergebnisse für die Pseudorotationsphase P sind konsistent mit Referenzwinkeln aus der 14mer-NMR-Struktur und den bereits bekannten (Gamma-C1´H1´-C2´H2´)/(Gamma-C3´H3´-C4´H4´)-Ratenverhältnissen. Die neue Methode liefert zusätzliche Informationen, um Konformation (P, nü_max) und Dynamik S2(C1´H1´-C3´H3´) der Ribosereste in RNA-Molekülen genauer beschreiben zu können. In Kapitel 5 dieser Arbeit wird die Entwicklung des 3D-HNHC-Experiments, einer neuen NMR-Pulssequenz, beschrieben. Dieses Experiment ermöglicht es, die H2-, C2- und N1-Resonanzen in Adenin-Nukleobasen 13C, 15N-markierter RNA-Oligonukleotide miteinander zu korrelieren. Die Funktionsfähigkeit der neuen Methode wurde an einer mittelgroßen, entsprechend markierten 36mer-RNA demonstriert. Die neue Methode vereinfacht die Zuordnung der Kerne der Adenin-Nukleobasen, da Zuordnungsmehrdeutigkeiten aufgrund überlappender Resonanzen in der 1H-Dimension aufgelöst werden können. In Kombination mit dem TROSY-relayed-HCCH-COSY-Experiment liefert das neue 3D-HNHC-Experiment das fehlende Glied für die Zuordnung der Imino-H3-Resonanzen der Uracil-Nukleobasen über das AU-Basenpaar hinweg zu den H8-Resonanzen der Adenin-Nukleobasen.
Die Diskussion um die Patientenverfügung in der Bundesrepublik Deutschland geht bis in die 1970er Jahre zurück, seit Mitte der 90er Jahre nahm sie an Intensität zu. Meilensteine ihrer Entwicklung waren die Entscheidungen des BGH im Kempten-Fall (1994), im Frankfurter Fall (1998) und im Lübeck-Fall (2003). Nach dem Lübeck-Fall mehrten sich die Stimmen, wonach der Gesetzgeber das Betreuungsrecht ändern und die Patientenverfügung gesetzlich verankern sollte. Ein Entwurf des Bundesjustizministeriums aus dem Jahr 2004 erreichte jedoch nicht den Deutschen Bundestag, er wurde dem Gesetzesentwurf unter der Leitung von Joachim Stünker angegliedert. Erst Anfang des Jahres 2007 erhielt die Diskussion mit einer Orientierungsdebatte Einzug in das Deutsche Parlament. In den Jahren 2007 bis 2008 wurden dann drei Gesetzesentwürfe zum Thema Patientenverfügung in den Bundestag eingebracht. Der erste Entwurf wurde im Mai 2007 unter Federführung von Wolfgang Bosbach (CDU) veröffentlicht. In ihm waren Formvorschriften für die Patientenverfügung verankert. Diese müsse in schriftlicher Form vorliegen sowie eine Unterschrift oder ein notariell beglaubigtes Handzeichen enthalten. Ein Widerruf der Patientenverfügung wäre jederzeit und ohne weiteres sowohl mündlich als auch zum Beispiel durch Gesten möglich gewesen. Der Gesetzesentwurf beinhaltete eine Reichweitenbegrenzung. Eine lebensverlängernde Maßnahme hätte demnach nur abgebrochen beziehungsweise nicht eingeleitet werden dürfen, wenn der Patient ein irreversibel zum Tode führendes Grundleiden gehabt hätte oder mit an Sicherheit grenzender Wahrscheinlichkeit das Bewusstsein nicht wiedererlangen würde. Eine unmittelbare Todesnähe wäre nicht notwendig gewesen. Ende 2008 wurde dieser Entwurf basierend auf einem Änderungsantrag unter Federführung von Katrin Göring-Eckardt (Bündnis90/Die Grünen) modifiziert. Es sollte ein zweistufiges Modell geben. Für eine Patientenverfügung mit Reichweitenbegrenzung sollten die gleichen Formvoraussetzungen wie im bisherigen Entwurf gelten, es sollte jedoch auch eine Patientenverfügung ohne Reichweitenbegrenzung möglich sein, für die schärfere Voraussetzungen gelten sollten, zum Beispiel eine regelmäßige Aktualisierungs- und Beratungspflicht. Ein zweiter Gesetzesentwurf entstand unter Federführung von Wolfgang Zöller (CSU) im Jahre 2007. Dieser Entwurf sah keine Reichweitenbegrenzung vor. Die Patientenverfügung sollte unabhängig von Art und Stadium der Erkrankung gelten. Weiterhin wären nicht nur schriftliche Verfügungen möglich gewesen, auch Tonträger oder Videos wären zu berücksichtigen gewesen, wenn sie eindeutig den Willen des Patienten gespiegelt hätten. Das Vormundschaftsgericht hätte nur bei Dissens zwischen Arzt und Betreuer eingeschaltet werden müssen, allerdings hätte es in diesem Fall das Gutachten eines Sachverständigen einholen müssen. Ein dritter Antrag wurde 2007 unter Federführung von Joachim Stünker (SPD) erarbeitet und im Jahre 2008 veröffentlicht. Auch dieser Gesetzesentwurf sah keine Reichweitenbegrenzung vor, eine Patientenverfügung sollte unabhängig von Art und Stadium der Erkrankung gelten können mit der formalen Voraussetzung der Schriftform. Das Vormundschaftsgericht sollte lediglich bei einem Dissens zwischen Arzt und Betreuer eingeschaltet werden, es müsste jedoch im Gegensatz zum Zöller-Entwurf vor seiner Entscheidung kein Gutachten einholen. In allen drei Entwürfen sollten jeweils §§ 1901 und 1904 BGB geändert werden. Am 29.05.2009 wurde unter der Leitung von Hubert Hüppe (CDU) zusätzlich ein Antrag auf Verzicht auf ein Gesetz eingebracht. Am 18.06.2009 entschied sich die Mehrheit des Bundestages für den Gesetzesentwurf der Gruppe um Joachim Stünker. Die anwesenden Abgeordneten der SPD, der FDP und der Partei Die Linke stimmten zum großen Teil für den Stünker-Entwurf und sicherten so die Mehrheit, die Vertreter der CDU/CSU stimmten mit nur einer Ausnahme gegen diesen Entwurf, fünf Abgeordnete enthielten sich bei dieser Abstimmung. Die Rolle des Betreuers gewann mit der Verabschiedung des Gesetzes an Bedeutung. Das Gesetz sieht vor, dass der Betreuer anhand der Patientenverfügung (bei Nichtvorliegen anhand des mutmaßlichen Willens des Betreuten) prüfen muss, ob „ diese Festlegungen auf die aktuelle Lebens- und Behandlungssituation zutreffen“297. Das Vormundschaftsgericht muss nur eingeschaltet werden, wenn zwischen behandelndem Arzt und Betreuer ein Dissens über die Behandlung des Betreuten beziehungsweise den Abbruch einer lebensverlängernden Maßnahme herrscht.
Innerhalb der letzten 30 Jahre haben sich photoaktivierbare Verbindungen („caged compounds“) zu einem äußerst wertvollen Werkzeug entwickelt. Seit der erstmals publizierten Anwendung von lichtaktivierbarem ATP im Jahre 1978 durch Hoffman et al. konnten viele neue Erkenntnisse im Bereich der Physiologie, Molekularbiologie und Biochemie mit Hilfe von photoaktivierbaren Verbindungen gewonnen werden. Hierunter versteht man Substanzen, deren biologische Wirksamkeit temporär inaktiviert ist, jedoch durch Bestrahlung mit Licht wiederhergestellt werden kann. Die Inaktivierung wird durch spezielle, lichtreaktive Chromophore erreicht, sogenannten photolabilen Schutzgruppen („cages“). Der Einsatz dieser Technik zur Aktivierung von Nukleinsäuren eröffnet ein weites Feld an Anwendungsmöglichkeiten. So ist auf diese Weise eine orts- und zeitaufgelöste Kontrolle der Aktivität von z.B. Antisense-DNA, siRNA oder Aptameren durch Licht möglich. Während der vorliegenden Doktorarbeit konnten zwei neuartige photolabil geschützte Desoxythymidine als Phosphoramidite zum Einsatz in der automatisierten DNA-Synthese dargestellt werden. Hierfür wurden jeweils NDBF-OH bzw. pHP-OH in O4-Position der Nukleobase eingeführt. Es konnte gezeigt werden, dass sich die beiden Nukleoside nach ihrem Einbau in DNA mittels UV-Licht entschützen lassen. Die photolabilen Schutzgruppen besaßen jedoch nur eine geringe chemische Stabilität unter verschiedenen basischen Abspaltbedingungen und sind deshalb nicht für die automatisierte DNA-Festphasensynthese unter Standardbedingungen geeignet. Durch Homologisierung der NDBF-Gruppe mit einer zusätzlichen Methyleneinheit zu hNDBF-OH wurde eine verbesserte Variante synthetisiert, welche eine ausreichende Basenstabilität und hervorragende photochemische Eigenschaften aufweist. Wie im Arbeitskreis Heckel gezeigt werden konnte, ist mittels in O6-Position hNDBF-modifiziertem Desoxyguanosin sowohl die DNA-Festphasensynthese unter Standardbedingungen möglich, als auch die spätere Photolyse dieser Schutzgruppe bei einer Wellenlänge von 420 nm. Hierdurch eröffnet sich zum ersten Mal die Möglichkeit, bei Verwendung von beispielsweise NPP und hNDBF, photolabil geschützte Bereiche in Nukleinsäuren wellenlängenselektiv durch Licht unterschiedlicher Wellenlänge zu aktivieren. In einem weiteren Projekt wurden erfolgreich photoaktivierbare Varianten des bivalenten Fusionsaptamers HD1-22 getestet. HD1-22 besitzt zwei Aptamerdomänen, HD1 und HD22, welche jeweils an eine der beiden Exosites I bzw. II von Thrombin binden. Im konkreten Fall konnten wir die Blutgerinnungsaktivität von Thrombin unter Verwendung einer photolabil geschützten Aptamersequenz von vollständig aktiv zu komplett inaktiv modulieren: Vor der UV-Bestrahlung war lediglich die Exosite II durch die HD22-Domäne blockiert. Dies erlaubte keinerlei Bindung des natürlichen Antikoagulans Antithrombin III an Thrombin – weder durch Heparin vermittelt noch ohne Beteiligung von Heparin. Der Zugang zur Exosite I war hingegen nicht eingeschränkt, die Blutgerinnungsaktivität des Thrombins somit durch die Rekrutierung von Fibrinogen an die Exosite I vollständig aktiv und nicht durch Antithrombin inhibierbar. Durch lichtvermittelte Entschützung der HD1-Domäne konnte nun eine Inaktivierung der Exosite I erfolgen, welche durch die hohe Bindungsaffinität der HD22-Aptamerdomäne stärker ausfiel als bei der ausschließlichen Verwendung eines HD1 Aptamers. Die koagulative Wirkung des Thrombins wurde somit vollständig aufgehoben. Im dritten Teil dieser Arbeit wurde der Grundstein für die Entwicklung eines kovalenten, lichtaktivierbaren Thrombin-Thrombinaptamer-Reagenzes gelegt. Dieses könnte zur gezielten Thromboembolisierung bei bestimmten malignen Tumorerkrankungen eingesetzt werden, um das entartete Gewebe von der Blut- und damit Nährstoffversorgung abzuschneiden. Zudem könnte so möglicherweise während einer Tumorexzision die Freisetzung von metastasierenden Krebszellen unterbunden werden. Das Reagenz besteht aus der von Heckel et al. publizierten „ausschaltbaren“ Variante des HD1-Aptamers. Diese besitzt einen photolabil geschützten Gegenstrang. Solange die Schutzgruppe intakt ist, bindet das Aptamer an die Exosite I von Thrombin und verhindert auf diese Weise die Rekrutierung von Fibrinogen. Wird die Sequenz jedoch mit UV-Licht bestrahlt, so erfolgt die Entschützung des Gegenstrangs und durch die folgende Basenpaarung eine Inaktivierung des HD1 Aptamers. Hieraus resultiert die Freisetzung von aktivem Thrombin, welches direkt zur Ausbildung eines Thrombus führt. Durch die – ebenfalls photospaltbare – kovalente Anbindung des „ausschaltbaren“ HD1 an die Proteinoberfläche werden eine vorzeitige Dissoziation des Aptamers und damit eine vorzeitige Wiederherstellung der Proteinaktivität verhindert.
Synthese und Optimierung von Nitroxyl-Spin-Labeln zur Analyse von Nukleinsäuren mittels EPR und NMR
(2010)
Im Rahmen dieser Doktorarbeit wurde der Einsatz der Nitroxyl-Spin-Markierung für die Strukturaufklärung von Oligonukleotiden getestet. Dafür wurden im Vorfeld verschiedene Spin-Label synthetisiert und charakterisiert. Bei den Nitroxiden handelt es sich hierbei um das Spin-Label TPA (2,2,5,5-Tetramethyl-pyrrolin-1-oxyl-3-acetylene) und TEMPA (2,2,6,6-Tetramethyl-3,4-dehydro-piperidin-N-oxyl-4-acetylene). Beide Spin-Label wurden auch als deuteriert und 15N-markiert synthetisiert. Basierend auf den erhaltenen Ergebnissen auf dem Gebiet der Modell-Systeme und Modell-RNAs wurden biologisch relevante und strukturell anspruchsvolle Oligonukleinsäuren untersucht. Dabei konnten DNA-RNA-Hybride, die HCV-IRES Domain II, ein Tetra-Loop, das Neomycin-B Aptamer, das Diels-Alder Ribozym und ein Nep1-RNA-Komplex charakterisiert werden. Die Einführung des Spin-Labels erfolgte noch auf der Festphase mittels der Sonogashira-Kreuz-Kupplungs Reaktion.
PPARs gehören wie die Steroidhormon-Rezeptoren (z. B.Glucocorticoid-, Estrogen- oder Testosteron-Rezeptoren) zur Superfamilie der nukleären Rezeptoren. Es existieren drei PPAR-Subtypen, die als PPARalpha, PPARbeta/delta und PPARgamma bezeichnet werden und von drei verschiedenen Genen kodiert werden. Fibrate sind PPARalpha-Agonisten, welche die Plasma-Triglyceridspiegel reduzieren und gleichzeitig eine moderate Steigerung des HDL-Cholesterols bewirken. Thiazolidindione (Glitazone) sind PPARgamma-Agonisten, die bei Typ-2-Diabetes-mellitus indiziert sind und als Insulinsensitizer wirken. Duale PPARalpha/gamma-Agonisten stellen eine neue Klasse von Arzneistoffen dar, die zukünftig zur Behandlung von Typ-2-Diabetikern mit gestörtem Lipidprofil eingesetzt werden könnten. Im Rahmen der vorliegenden Dissertation wurde eine Leitstrukturoptimierung des selektiven PPARalpha-Agonisten Pirinixinsäure (WY 14643) durchgeführt. Die pharmakologische In-vitro-Charakterisierung der Substanzen erfolgte mit Hilfe subtypspezifischer Reportergen-Assays. Zusätzlich wurde gezeigt130, dass Chinolinderivate der Pirinixinsäure 5-LOX-inhibierende Eigenschaften in polymorphnukleären Leukozyten zeigen. Zunächst wurde eine geeignete Synthesestrategie zur Darstellung von Pirinixinsäurederivaten etabliert, was zur Charakterisierung und Identifizierung einer Serie von potenten dualen PPARalpha/gamma-Agonisten und 5-LOX-Inhibitoren führte. Die Synthesestrategie zur Darstellung von sowohl im Arylamino-Bereich (W) als auch in alpha- Position (R) modifizierten Derivaten der Pirinixinsäure bestand in einer vierstufigen Reaktionsfolge (I–IV; siehe Abb.). ... Die PPAR-Modulatoren (Carbonsäuren) 4, 8, 14, 32–38, 41 und 42 wurden in-vitropharmakologisch unter Anwendung subtypselektiver Reportergen-Assays (hPPARalpha, beta, gamma) charakterisiert. Die 5-LOX-Modulatoren (Carbonsäureester) 3, 7, 8, 13, 14, 24–29, 31–42 und 50 wurden in-vitro-pharmakologisch unter Anwendung des 5-LOX-Standardassays in intakten PMNL (polymorphnukleäre neutrophile Leukozyten) evaluiert. Die vorliegende Untersuchung deckte auf, dass der Ersatz des 2,3-Dimethylanilin-Strukturelements der Pirinixinsäure durch 6-Aminochinolin zu einem Gesamtverlust des PPARalpha/gamma-Agonismus führt. Durch Strukturmodifikationen im Arylamino-Bereich der Leitstruktur WY 14643 mit für 5-LOX-Non-Redoxinhibitoren typischen Pharmakophorresten, Tetrahydropyran-4-yl (Substanzen 13–14) und Methoxychinolin-2-yl (Substanz 43), konnte eine signifikante Steigerung des 5-LOX-inhibitorischen Potenzials erzielt werden [IC50 7 mikro M (13) bzw. 4 mikro M (43)]. Die alpha-alkylsubstituierten Carbonsäurederivate 33–38 zeigten sowohl am hPPARalpha als auch am hPPARgamma eine mit der aliphatischen Kettenlänge steigende Potenz. Am hPPARalpha erwiesen sich das alpha-Hexyl-Derivat 35 und das alpha-Butyl-Derivat 34 mit EC50-Werten von 1,9 mikro M (35) bzw. 11,5 mikro M (34) entsprechend einer Steigerung der Aktivität gegenüber WY 14643 um den Faktor 20 (35) bzw. den Faktor 4 (34) als besonders potent. Im Falle des hPPARgamma zeigten ebenso das alpha-butylsubstituierte Derivat 34 und der alpha-hexylsubstituierte Ligand 35 die höchste Aktivität mit EC50-Werten von 8,7 mikro M (34) bzw. 5,8 mikro M (35) und einer Steigerung der Aktivität gegenüber WY 14643 von Faktor 6 (35) bzw. Faktor 9 (34). Die Einführung von alpha-Alkylsubstituenten in das Grundgerüst der Pirinixinsäure führt möglicherweise zum Besetzen der linken proximalen Bindungstasche und somit zu einer im Vergleich zur Leitstruktur WY14643 stärkeren Bindung in die Ligandenbindungstasche des Rezeptors. Die Besetzung dieser proximalen Bindungstasche entscheidet jedoch nicht über die PPAR-Selektivität, da diese sowohl von hPPARalpha- als auch von hPPARgamma-Agonisten belegt wird. PPARalpha/gamma-Selektivität kann zum einen durch das Besetzen der linken bzw. rechten distalen Bindungstasche erzielt werden, zum anderen durch die Auswahl verschiedener acider Kopfgruppen. Aufgrund unterschiedlicher Aminosäuresequenzen der Bindungstaschen der einzelnen PPAR-Subtypen ergibt sich für die Kopfgruppen der PPAR-Modulatoren im hPPARalpha und hPPARgamma eine durch den sterischen Einfluss von Carboxyl- bzw. TZD-Kopfgruppen verursachtes unterschiedliches Wasserstoffbrückennetzwerk. Im Vergleich mit Pirinixinsäure konnte nur durch die Einführung der größeren Alkylketten (n-Butyloder n-Hexyl) ein stark erhöhter dualer PPARalpha/gamma-Agonismus erreicht werden. Die Substitution des sekundären Amins der Chinolin-6-ylverbindungen durch einen Ether-Sauerstoff in den Substanzen 41 und 42 sowie die Einführung eines Linkers, genauer einer Methylengruppe, zwischen dem Chinolin-6-ylrest und dem Scaffold (Derivate 29 und 36), führt zu einer verminderten Aktivität sowohl an hPPARalpha als auch an hPPARgamma. Eine mögliche Erklärung hierfür könnte sein, dass an entsprechender Position der Liganden-Bindungstasche eine Wasserstoffbrücken-Akzeptor-Position vorhanden ist, welche zur Erhöhung der Affinität beiträgt. Offensichtlich wird, durch die Ausbildung einer Wasserstoffbrücke zwischen der NH-Funktion und einem Wasserstoffbrücken-Akzeptor innerhalb der LBP im Falle von WY 14643 ein hoher Bindungsbeitrag erreicht. Daten bezüglich der Inhibierung der 5-Lipoxygenase demonstrieren, dass 6-Aminochinolinderivate potente 5-LOX-Inhibitoren sind. Die Einführung eines 3,5-Bis-(2,2,2-trifluor-ethoxy)-phenylrestes in 6-Position des alpha-hexylsubstituierten Scaffolds führt zu Ligand 38. Dieser ist ein potenter dualer PPARalpha/gamma-Agonist mit einem EC50-Wert von 11 mikro M an hPPARalpha bzw. 7,7 mikro M an hPPARgamma und ein stark wirksamer 5-LOX-Inhibitor mit einem IC50-Wert von 1 mikro M im 5-LOX-PMNL-Standardassay. Die Substanz 38 wurde in präklinischen Studien eingesetzt. Vier Stunden nach oraler Administration bei Mäusen (n = 6) wurde einen Plasmaspiegel von 40 mikro M erreicht. Im Hinblick auf eine Steigerung der PPAR-agonistischen Aktivität und der Reduktion der hepatotoxischen Eigenschaften der Leitstruktur Pirinixinsäure wurde eine Leitstrukturoptimierung durch Einführung der größeren Alkylketten in alpha-Position zur pharmakophoren Carboxyl-Funktion durchgeführt. Für die inhibierende Wirkung auf die 5-LOX scheint das Chinolin-Strukturelement verantwortlich zu sein, während die Potenz der Inhibition durch das Substitutionsmuster moduliert wird.
Die Gattung Palaua gehört zur Tribus der Malveae (Malvaceae, Malvoideae). Sie umfasst fünfzehn einjährige oder ausdauernde krautige Arten, die für die Nebeloasen („Lomas“, „Desierto Florido“) der Küstenwüste Perus und Chiles endemisch sind. Abweichend von den meisten anderen Gattungen der Malveae besitzt Palaua (mit Ausnahme von P. sandemanii) unregelmäßig übereinander angeordnete Merikapien. Dieses Merkmal ist ansonsten nur von den beiden altweltlichen Gattungen Kitaibela und Malope bekannt, weshalb diese früher mit Palaua in der Tribus Malopeae vereint wurden. Palynologische, cytogenetische und molekulare Analysen zeigten jedoch, dass die Malopeae eine polyphyletische Gruppe bilden und dass die in Südamerika verbreiteten Gattungen Fuertesimalva und Urocarpidium die nächsten Verwandten von Palaua sind. Ebenso wie im Aufbau des Gynözeums unterscheidet sich Palaua auch durch das Fehlen eines Epicalyx vom Großteil der Malveae, einschließlich ihrer Schwestertaxa. Seit der Erstbeschreibung der Gattung durch Cavanilles im Jahr 1785 sind nur zwei detaillierte Bearbeitungen der Gattung Palaua veröffentlicht worden. Die umfassendste davon stammt von Ulbrich (1909). Auf der Grundlage der umfangreichen Aufsammlungen von August Weberbauer beschrieb er mehrere neue Arten in seinem Werk „Malvaceae austro-americanae imprimis andinae“, das er in nachfolgenden Jahren (1916, 1932) vervollständigte. Die zweite bedeutsame Bearbeitung ist die Revision der Gattung durch Macbride (1956) in der „Flora of Peru“. Seit den 50er Jahren des vorherigen Jahrhunderts kamen jedoch zahlreiche Aufsammlungen hinzu, insbesondere durch den peruanischen Botaniker Ramón A. Ferreyra (1912-2005), sowie durch Ernesto Günther (1870-?) zusammen mit Otto Buchtien (1859-1946), Gerd K. Müller (1929-) und Michael O. Dillon (1947-), so dass eine Neubearbeitung von Palaua erforderlich wurde. Darin bestand das Hauptziel der hier vorgestellten Dissertation. Für die Revision der Gattung wurden 618 Herbarbelege der wichtigsten Herbarien morphologisch untersucht. In den Jahren 2002 und 2003 wurden während mehrmonatiger Geländearbeiten in den Lomas-Standorten Perus und Chiles eigene botanische Aufsammlungen durchgeführt sowie Daten zur Verbreitung der Arten und ihrer Ökologie erfasst. Des Weiteren wurde aus dem mitgebrachten Samenmaterial eine mehrere Arten einschließende Lebendsammlung angelegt, mit deren Hilfe detaillierte Untersuchungen zur Blütenmorphologie und Karyologie realisiert werden konnten. Besonders schwierig gestaltete sich die Bearbeitung nomenklatorischer Fragestellungen, da viele der in Berlin (B) aufbewahrten Typusbelege von Weberbauer im Zweiten Weltkrieg zerstört wurden und somit eine Identifizierung vieler Arten problematisch war. Auch die Ermittlung des Typusbelegs der Gattung, den Cavanilles für seine Beschreibung vorliegen hatte, war mühsam. Neben dem Studium der Originalbelege und Protologe mussten auch die historischen Begebenheiten rekonstruiert und Reiseberichte zu den Aufsammlungen durchgesehen werden, um unter anderem den Holotypus der Gattung identifizieren zu können. Die eigenen taxonomischen Studien führten zur Festlegung von insgesamt 8 Lectotypen, 3 Epitypen and 2 Ikonotypen. Im Rahmen der morphologischen Untersuchungen wurden sämtliche taxonomisch relevanten Merkmale detailliert erfasst, einschließlich der verschiedenen Behaarungstypen. Neben den für die Malvaceen bekannten Sternhaaren, sind hier auch Drüsenhaare für Palaua beschrieben und charakterisiert worden. Die anatomischen Studien konzentrierten sich auf Blatt- und Samenmerkmale. Zusätzlich zu den morphologisch-anatomischen Studien wurden molekularsystematische Analysen durchgeführt. Zwei Methoden kamen dabei zur Anwendung: DNA-Sequenzierung und Amplified Fragment Length Polymorphism (AFLP). Letztere wurde eingesetzt, um insbesondere die Verwandtschaftsverhältnisse junger Taxa, die sich mit DNA-Sequenzdaten kaum auflösen lassen, zu rekonstruieren. In umfangreichen Versuchen stellte sich jedoch heraus, dass diese Methode keine reproduzierbaren Ergebnisse hervorbrachte, vermutlich bedingt durch den sehr hohen Polysaccharidgehalt der DNA-Template, wie es von Malvaceen her bekannt ist. Selbst die Erprobung zahlreicher Reinigungsschritte und –methoden ergab kein zufriedenstellendes Resultat. Für die phylogenetische Rekonstruktion wurden daher ausschließlich DNA-Daten verwendet, und zwar Kern-DNA (Internal Transcribed Spacer, ITS) und Plastiden-DNA (psbAtrnH Intergenic Spacer). Andere getestete Marker, wie z.B. die trnL-F-Region, wiesen zu wenig phylogenetisch informative Merkmale auf. Die morphologischen Analysen ergaben, dass Merkmale wie die Behaarung der Kelch- und Laubblätter, die Blattform und die Größe der Blüten besonders hilfreich für die Abgrenzung der Arten sind. Im Gegensatz zu anderen nah verwandten Gattungen ist die Form der Merikarpien in Palaua relativ uniform und daher als diakritisches Merkmal ungeeignet. Die Größe der Blüte nimmt in der Regel mit der Anzahl der Staubgefäße und Merikarpien zu. Die Palaua-Arten zeigen einige Anpassungen an ihren extrem trockenen Lebensraum. Die meisten Arten sind Annuelle und vollziehen eine rasche Entwicklung während der kurzen Zeit, in der ausreichend Feuchtigkeit verfügbar ist. Bei solchen Pflanzen findet man als Anpassung häufig eine Tendenz zur vermehrten Samenproduktion. In diesem Zusammenhang ließe sich auch die innerhalb des Verwandtschaftskreises ungewöhnliche Stellung der Merikarpien bei Palaua interpretieren, mit der es den Arten gelingt, mehr Samen als bei Arten mit einreihiger Merikarpienanordnung zu produzieren. Als weitere Anpassung findet man bei den ausdauernden Arten größtenteils eine sehr dichte Behaarung, wobei die Sternhaare mehrjähriger Arten wesentlich mehr Strahlen besitzen als die bei den einjährigen Arten. In der hier vorgestellten Revision der Gattung werden 15 Arten anerkannt: P. camanensis, P. dissecta, P. guentheri, P. inconspicua, P. malvifolia, P. modesta, P. mollendoensis, P. moschata, P. rhombifolia, P. sandemanii, P. tomentosa, P. trisepala, P. velutina, P. weberbaueri sowie die neu zu beschreibende P. spec. nov. Die morphologisch abweichende P. sandemanii wird aufgrund der molekularen Analysen ebenfalls zu Palaua gestellt. Die auch in der jüngeren Literatur meist als getrennte Arten aufgefassten P. concinna und P. moschata lassen sich nach Durchsicht des umfangreichen Materials nicht mehr als eigenständige Arten aufrechterhalten. Die vormals als chilenischer Endemit behandelte P. concinna wird hier in die Synonymie von P. moschata gestellt. Auch die peruanische P. micrantha var. hirsuta wurde in die Synonymie der zuvor rein chilenischen P. modesta verwiesen, was bedeutet, dass sich das Vorkommen von P. modesta nun auch auf Peru ausdehnt. Auf infraspezifischem Niveau wurden einige Varietäten und eine Form neu beschrieben, um die im Sammlungsmaterial vorhandene morphologische Variabilität besser zu gliedern. Das ist der Fall bei P. dissecta (2 Varietäten), P. tomentosa (1 Varietät), P. weberbaueri (1 Varietät) und P. mollendoensis (1 Form). Die neuen Taxa werden an anderer Stelle gültig publiziert. Die von Baker (1890) and Ulbrich (1909) gewählte infragenerische Klassifikation mit der Einteilung in die Sektionen Annuae (einjährige Arten) und Perennes (mehrjährige Arten) erweist sich als nicht haltbar. Weder die morphologischen noch die molekularen Daten bieten hierfür Unterstützung. Auch die von Hochreutiner (1956) vorgeschlagene Ausgliederung von P. trisepala als eigene Untergattung Rauhia, aufgrund des Vorkommens von lediglich drei statt fünf Kelchblättern, erscheint nicht sinnvoll. Abgesehen von ihrer reduzierten Kelchblattzahl (3 statt 5 Kelchblätter) ist diese Art morphologisch P. moschata und P. velutina sehr ähnlich. Die Aufstellung einer eigenen Untergattung würde die tatsächlichen Verwandtschaftsverhältnisse verwischen und vermutlich eine paraphyletische Einheit schaffen. Im Vergleich zur Anzahl der Kelchblätter sind Merkmale wie der Aufbau der Infloreszenzen, die Blütengröße und -farbe, sowie die Blattmorphologie (geteilte vs. ungeteilte Blätter) nützlicher für eine infragenerische Unterteilung. Die Form der Stipeln, die von Ulbrich (1909) für eine weitere Unterteilung seiner Sektionen verwendet wurde, ist weniger für eine infragenerische Gliederung als für die Abgrenzung mancher Arten geeignet. Formell wurde in der hiesigen Arbeit auf eine infragenerische Unterteilung verzichtet, da zunächst abgewartet werden soll, ob weiterführende molekularsystematische Untersuchungen nicht doch zu einer besseren Auflösung und auch Unterstützung der basalen Knoten der Palaua-Phylogenie führen. Andernfalls steht zu befürchten, dass wiederum künstliche Sippen geschaffen werden. Nichtsdestotrotz, sprechen die eigenen morphologischen und zum Teil auch die molekularen Daten für eine Gliederung der Gattung in drei taxonomische Einheiten (siehe unten). Die Ergebnisse der molekularen Analysen (kombinierte Analyse von ITS- und psbA-trnHSequenzen) ergaben drei mehr oder weniger gut gestützte Kladen innerhalb einer sehr gut gestützten monophyletischen Palaua. Interessanterweise bildeten die Arten P. inconspicua und P. modesta eine Klade (88% Jackknife-Unterstützung, JK), die die Schwestergruppe zu den restlichen Arten der Gattung darstellt. Beide Arten haben eine von der restlichen Gattung abweichende Blütenmorphologie (kleine Petalen, weniger Merikarpien) und die razemösen Infloreszenzen enthalten neben Einzelblüten in den Achseln der Trägblätter auch 2-4-blütige Teilinfloreszenzen, an denen die Blüten kein Tragblatt aufweisen. Die zweite Klade (JK 97%) beinhaltet die Arten des P. dissecta-Komplexes, dessen Arten sich durch tief geteilte Blätter und große, auffällig rosarot bis violett gefärbte Blüten mit zahlreichen Merikarpien auszeichnen. In der dritten Klade (JK 73%) bildet P. guentheri die Schwestergruppe zu den restlichen Arten. Die hier vereinten Arten sind durch den Besitz ungeteilter Blätter und meist großer, auffällig rosarot bis violett gefärbter Blüten mit zahlreichen Merikarpien gekennzeichnet. Eine Ausnahme bildet P. guentheri, die geteilte Blätter hat und von daher Übereinstimmungen mit den Arten um P. dissecta aufweist. Sie weicht jedoch von den Arten des P. dissecta-Komplexes aufgrund ihrer geringeren Blütengröße und der geringeren Merikarpienanzahl ab. Außerdem sind die Blätter meist stärker reduziert und weniger regelmäßig geteilt als jene. Allerdings bedarf die Stellung von P. guentheri innerhalb der Gattung noch einer eingehenderen Überprüfung mit zusätzlichen (molekularen) Daten, da die Unterstützung für diese Klade vergleichsweise moderat ausfällt. Interessanterweise schließt diese Klade auch die aberrante P. sandemanii ein. Eine phylogenetische Rekonstruktion der Karpellanordnung ergab, dass die einreihige Anordnung der Karpelle in P. sandemanii vermutlich sekundär in Palaua entstanden ist. Allerdings zeigten Hypothesentests (Templeton-Test, Shimodaira-Hasegawa-Test), dass die Datengrundlage nicht ausreichend robust ist, um auch die Alternativhypothese einer sekundären Entstehung der unregelmäßig übereinander angeordneten Karpelle, wie sie die restlichen Arten der Gattung kennzeichnen, zu verwerfen. Innerhalb der Integrifolia-Klade lassen sich außerdem zwei Gruppen von Arten morphologisch deutlich unterscheiden. Die erste Gruppe besteht aus den einjährigen P. malvifolia und P. rhombifolia, die sich durch ihr fast kahles Indumentum auszeichnen und in Nord- bis Zentral-Peru vorkommen. Die zweite Gruppe, gebildet von den ausdauernden P. moschata, P. trisepala und P. velutina, ist durch ein samtiges Indumentum gekennzeichnet. Während sich P. moschata über das gesamte Verbreitungsgebiet der Gattung erstreckt, kommen die anderen Arten nur in Südperu vor. Die Chromosomenzahl von Palaua ist ein wichtiges Merkmal und diente Bates (1968) für deren Zuordnung zur Sphaeralcea-Allianz. Bis dato sind Chromosomenzählungen nur für zwei Arten bekannt gewesen: P. rhombifolia und P. moschata (beide mit 2n = 10 Chromosomen). In dieser Arbeit wurden weitere Zählungen durchgeführt und es wurde bestätigt, dass es neben diploiden auch tetraploide Arten mit 2n = 20 Chromosomen gibt. Polyploidie scheint dabei auf die ausdauernden Arten beschränkt zu sein. In manchen Arten, insbesondere in denjenigen des P. dissecta-Komplexes und in P. tomentosa, findet man eine ausgeprägte phänotypische Variabilität, die die Abgrenzung derselben stark erschwert. Ohne die Ursachen abschließend klären zu können, erscheint diese Variabilität zumindest teilweise als Ergebnis von Hybridisierung, Introgression und Polyploidisierung zu sein. In Bezug auf die Biogeographie der Gattung, zeigt sich, dass 11 Palaua-Arten endemisch für Peru sind und 4 Arten auch in Chile vorkommen. Das Verbreitungszentrum von Palaua ist das Gebiet der Lomas im Süden Perus (Departments Arequipa, Moquegua, Tacna), in dem 12 der 15 Arten auftreten. Die Blütezeit der Palaua-Arten variiert von Jahr zu Jahr, abhängig davon, wie viel Nebelfeuchtigkeit in der südhemisphärischen Winter-/Frühlingszeit für die Pflanzen zur Verfügung steht. Die Entstehung der Nebel variiert außerdem von Norden nach Süden, so dass sich die Blühphasen entlang dieses Gradienten verschieben. So liegt die Blütezeit in Nordperu zwischen Juli und August, in Zentral-Peru zwischen August und September und in Südperu und Chile zwischen Oktober und November. Abweichungen von diesem Schema entstehen vor allem in El Niño-Jahren, in denen auch während des südhemisphärischen Sommers die Lomaspflanzen blühen. Die Lomasvegetation ist eine bedrohte Pflanzenformation, deren Artenvielfalt bisher aber nur in Form eines recht kleinen Naturreservats geschützt wird. Da sich viele Lomasstandorte in der Nähe von Siedlungen befinden, sind etliche der lokal nur begrenzt vorkommenden Arten in ihrem Bestand bedroht. Dies betrifft insbesondere P. rhombifolia und P. malvifolia, deren Verbreitungszentrum im Gebiet der Hauptstadt Lima liegt. Eigene Beobachtungen am Standort haben zudem bestätigt, dass einige Populationen dieser Arten durch von Käfern verursachter Herbivorie nahezu vollständig zerstört werden. Weitere Schutzmaßnahmen zum Erhalt der Palaua-Arten (wie auch der anderen Lomas-Arten) wären daher dringend geboten.
Das C-reaktive Protein (CRP) ist ein systemischer Marker für unspezifische Infektionen und wird bei einer Entzündungsreaktion in der Leber produziert. Seine Serum-Konzentration steigt im Rahmen einer Immunreaktion innerhalb von 24 - 48 Stunden auf ein vielfaches an und induziert zahlreiche Prozesse des Immunsystems. Erhöhte CRP-Werte konnten als Risikofaktor für kardiovaskuläre Erkrankungen identifiziert werden. Zahlreiche Querschnittsstudien konnten erhöhte Serum-CRP-Werte bei Parodontitispatienten im Vergleich zu gesunden Kontrollpersonen finden. Der Anstieg des Serum-CRP könnte ursächlich an den Zusammenhängen zwischen Parodontitis und kardiovaskulären Erkrankungen beteiligt sein. Die Neutrophile Elastase ist ein weiterer systemischer Parameter, der im Rahmen chronischer Entzündungsreaktionen, wie der chronischen obstruktiven Lungenerkrankung (COPD), erhöhte Werte annimmt. Zahlreiche Studien konnten erhöhte Leukozytenzahlen bei Parodontitispatienten finden. Bisher wurde von den meisten Studien die Erhöhung des CRP-Wertes, sowie weiterer anderer Entzündungsparameter im Zusammenhang mit Parodontitis untersucht. Nach unserem Kenntnisstand konnten lediglich erhöhte Elastase-Werte im Zusammenhang mit Gingivitis gezeigt werden. Ziel der Untersuchung: Vergleich der Entzündungsparameter (CRP, Elastase, Leukozytenzahl, LBP, IL-8, IL-6) bei parodontal gesunden Probanden (Pro) und Patienten mit aggressiver (AgP) und chronischer Parodontitis (ChP). Methode: Es wurden 30 Pro (Sondierungstiefe (ST) < 3,6 mm oder < 5 mm ohne Bluten auf Sondieren (BOP), BOP < 10 %), 31 Patienten mit ChP (ST ≥ 3,6 mm und Attachmentverlust (AL) ≥ 5 mm ≥ 30 % der Stellen, Alter ≤ 35 Jahre) und 29 Patienten mit AgP (klinisch gesund (d.h. keine Allgemeinerkrankungen, die für Parodontitis prädisponieren), ST ≥ 3,6 mm > 30 % der Stellen, röntgenologischer Knochenabbau von ≥ 50 % der Wurzellänge an ≥ 2 Zähnen, Alter ≥ 18 Jahre und ≤ 35 Jahre) wurden klinisch auf folgende parodontologische Parameter untersucht: Entzündungsbefund, Plaquebefund, ST, AL, BOP. Bei allen Patienten wurde der BMI erhoben und Blutproben zur Bestimmung von CRP (untere Nachweisgrenze: 0,01 mg/dl), Elastase, Leukozytenzahl, LBP, IL-8 und IL-6 entnommen. Ergebnisse: Es wurden 30 Pro (16 Frauen, 8 Raucher), 31 Patienten mit ChP (12 Frauen, 10 Raucher) und 29 Patienten mit AgP (16 Frauen, 9 Raucher) eingeschlossen. Die Ergebnisse der CRP-Konzentration (Pro: 0,10 ± 0,12; ChP: 0,17 ± 0,23; AgP: 0,55 ± 0,98 mg/dl [p < 0,001]), der Elastase-Werte (Pro: 10,0 ± 4,7; ChP: 17,1 ± 12,3; AgP: 32,0 ± 14,6 mg/dl [p < 0,001]) unterschieden sich in allen drei Gruppen signifikant, wohingegen keine signifikanten Unterschiede in der Leukozytenzahl und der Konzentrationen von IL-8 festzustellen war. Die Werte für LBP (p < 0,01) waren signifikant höher in der AgP-Gruppe als in der Pro-Gruppe und der ChP-Gruppe (Pro = ChP < AgP). Die IL-6 Konzentration war in der Kontrollgruppe signifikant niedriger (p < 0,001) als in den Testgruppen (Pro < ChP = AgP). Die unterschiedlichen CRP-Werte in den Testgruppen sind teilweise durch den BMI zu erklären (p = 0,003). Schlussfolgerung: Die Konzentrationen für Serum-CRP und Elastase sind signifikant erhöht bei Patienten mit aggressiver Parodontitis im Vergleich zu parodontal gesunden Probanden als auch zu Patienten mit chronischer Parodontitis. Erhöhte Serum-CRP-Werte könnten bei Patienten mit aggressiver Parodontitis zu einem erhöhten kardiovaskulären Risiko beitragen.
Tanzen ist eine Form des Umgangs mit Musik, die in allen Kulturen weltweit existiert. Eine der vielen Funktionen, die dem Tanzen im Laufe der Geschichte zugeschrieben wurden, ist sein Nutzen als heilkräftiges Medium. Bisher gibt es jedoch nur wenige Untersuchungen, die sich mit den potenziellen Effekten des Tanzens als gesundheitsfördernde Tätigkeit beschäftigt haben. Ziel der vorliegenden Arbeit war es einerseits, eine Orientierung in diesem zersplitterten und gleichwohl viel versprechendem Forschungsfeld zu bieten und andererseits die subjektiven Wirkungen des Amateur Tanzens, seine psychobiologischen Korrelaten, sowie die dabei zu Grunde liegenden Einflüsse von Musikstimulation und Partner zu untersuchen. Es wurde gezeigt, dass Tanzen eine multidimensionale Tätigkeit darstellt, die verschiedene gesundheitsfördernden Komponenten, nämlich Körperbewegung, soziale Interaktion und Musikstimulation, einschließt. Wahrgenommen werden positive Wirkungen des Tanzens auf das emotionale Befinden, das körperliche Wohlergehen, das Selbstwertgefühl, das Sozialempfinden sowie das spirituelle Wohlbefinden. Tanzen wird darüber hinaus als wichtige Strategie zur Stressbewältigung anerkannt. Die Untersuchung der Wirkung des Paartanzens auf den emotionalen Zustand sowie auf Cortisol- und Testosteronkonzentrationen ergab, dass Tanzen zu einem Anstieg des positiven und einem Absinken des negativen Affektes führt. In Bezug auf die psychobiologischen Parameter wurden Cortisolreduktionen nach dem Tanzen nachgewiesen, welche von der Musikstimulation abhängig waren, während Testosteronerhöhungen zu Beginn der Untersuchung mit der Präsenz des Partners assoziiert waren. Die hier skizzierten Studien geben Hinweise auf die gesundheitsfördernde Bedeutung des Amateurtanzens sowie auf seine subjektiven und neuroendokrinen Korrelate. Darüber hinaus trägt diese Arbeit dazu bei, die differentiellen Einflüsse von Musik und Partner beim Tanzen zu verstehen. Diese Befunde sollen zukünftige Forschungsvorhaben fördern, die den Nutzen des Tanzens als gesundheitsfördernde Tätigkeit weiter verdeutlichen und das Verständnis der dahinter liegenden psychobiologischen Mechanismen erweitern.
Das Ziel dieser retrospektiven Untersuchung ist, die medikamentöse Therapie des neonatalen Entzugsyndroms mittels Clonidin und Chloralhydrat mit der sehr häufig angewendeten Kombinationstherapie aus Morphin und Phenobarbital zu vergleichen. Im dem Zeitraum zwischen 1998 und 2008 wurden in unserer Klinik 133 Neugeborene mit einem neonatalen Entzugssyndrom behandelt. Bei allen Patienten handelte es sich um Neugeborene drogenabhängiger Mütter, welche während der Schwangerschaft mit Methadon substituiert wurden. Bei 29 Patienten wurde eine Therapie mit Clonidin und Chloralhydrat und bei 64 Patienten eine Entzugstherapie mittels Morphin und Phenobarbital durchgeführt. In der Clonidingruppe konnte eine signifikant kürzere Behandlungsdauer (Median: 14 d vs. 35 d) festgestellt werden. Entsprechend war auch die gesamte Aufenthaltsdauer in der Clonidingruppe deutlich kürzer (Median: 32 d vs. 44 d). Außerdem konnte in der Clonidingruppe ein deutlich milderer Verlauf der Entzugssymptomatik festgestellt werden.
In dieser Studie konnte deutlich gezeigt werden, dass TS eine größere psychische Belastung vorweisen, als die Norm. Sie neigen stärker zur Somatisierung und sind insgesamt zwanghafter, ängstlicher,aggressiver und depressiver. Dies spricht für eine große psychische Belastung, die am ehesten von den schwierigen Begleitumständen und der enormen Bandbreite einer Geschlechtsidentitätsstörung herkommen. Durch die Reaktionen im privaten und beruflichen Umfeld verändern sich bodenständige Strukturen, wie Verhältnis zu den Eltern, Partnerschaftsverhältnisse und Freundschaften. Ein vermindertes Selbstwertgefühl entsteht konsekutiv aus der sozialen Ausgrenzung und dem langen Verlauf zwischen Diagnosestellung und Therapie mit einem Endergebnis. Das verminderte Selbstwertgefühl spielt eine große Rolle im Hinblick auf die Therapie. Denn 50 % der TM und 100 % der TF korrelieren die Geschlechtsidentität mit dem Äußeren und streben deshalb als Therapieziel eine Geschlechtsangleichung an. Dass in diesen Fällen das Selbstwertgefühl durch eine operative Geschlechtsangleichung gesteigert und deutlich verbessert werden kann konnte jedoch in dieser Studie nicht bewiesen werden. Ob das nun mit oft unzureichenden Operationsergebnissen zusammenhängt bleibt zunächst offen. Green und Blanchard 2000; van Kesteren, Gooren und Megens 1996 belegten bereits, dass nicht alle TS eine Geschlechtsangleichung anstreben. Somit sind diese Ergebnisse relativ konform mit den Ergebnissen dieser Studie. Eine weitere Rolle spielt das elterliche Erziehungs- und Beziehungsverhalten. Die meisten TS haben sowohl zum Vater als auch zur Mutter konflikthafte Beziehungen. Wobei in dieser Studie vor allem imponierte, dass TF ein konflikthafteres Verhältnis vor allem zur Mutter haben und weniger emotionale Wärme erfahren haben. Ob die Geschlechtsidentitätsstörung ursächlich für die konflikthaften Elternbeziehungen ist oder die konflikthafte Elternbeziehung erst durch ein Outcome der TS entstanden ist konnte nicht hinreichend geklärt werden, wäre aber für die Frage der elterlichen Erziehung als Ursache der TS sehr interessant. Des Weiteren konnte diese Studie zeigen, dass es zwischen TF und TM nur einen signifikanten Unterschied gibt und zwar, dass TF weniger emotionale Wärme durch die Mutter erfahren haben. Ansonsten unterscheiden sich TF von TM nicht wesentlich in punkto psychische Belastung, Selbstwertgefühl und Einfluss der elterlichen Beziehung auf die GIS. Weiterhin konnte in dieser Studie belegt werden, dass sich bereits operierte TS von noch nicht operierten TS nicht unterscheiden. Auch hier zeigt sich kein Unterschied im Hinblick auf die psychische Belastung und das Selbstwertgefühl bei bereits noch nicht operierten TS im Vergleich zu bereits operierten. Das Grundleiden bleibt das Gleiche, offen bleibt zu diskutieren, ob ein unzureichendes Operationsergebnis daran Schuld trägt oder die Tatsache, dass viele TS sich nicht nur zu EINEM Geschlecht zugehörig fühlen. Diese Tatsache konnte in dieser Arbeit eruiert werden und sollte weiterhin ein Diskussionspunkt hinsichtlich voreiliger geschlechtsangleichender Therapiemaßnahmen sein. Es gelang bedauerlicherweise nicht signifikante Korrelate/Risikofaktoren in direktem Bezug auf TS zu ermitteln. Die ermittelten signifikanten Korrelate sind nicht spezifisch für das Kollektiv der TS. Somit sind mangelndes Selbstwertgefühl und Attraktivitätsempfinden, sowie zunehmende Unsicherheit und Besorgnis auch begleitende Faktoren in anderen Patientenkollektiven (Tumorpatienten nach OP und Chemo, Brandopfer etc.). Für viele TS wäre es erstrebenswert nicht als „anders“ oder „krank“ gesehen zu werden, um ein höheres Ansehen in unserer Gesellschaft zu gewinnen. Jedoch gäbe es gar keine Unterschiede zu TS, dann würde vielen TS die Behandlungsgrundlage, nämlich eine Geschlechtsangleichung, genommen werden. Wenn auch nicht alle TS an einer Geschlechtsangleichung interessiert sind, gibt es wiederum TS, die auf die Diagnose Transsexualität angewiesen sind. Es gibt keine Diagnose ohne Krankheit und umgekehrt. Standardisierte Persönlichkeitstests sind nicht auf den individuellen Einzelfall zugeschnitten, sondern erfassen allgemeine, generalisierte Parameter. Jeder Fall von Transsexualität ist ein individueller Einzelfall. Ergebnisse eines Standardtests werden sich somit nicht pauschalisieren lassen. Die in o.g. Veröffentlichungen gemachten Angaben zu Transsexuellen sind durch das Sammeln vieler Einzelfälle in einem Zeitraum von mehreren Jahren entstanden (Balint 1960 und Becker 2003). Auf die Schnelle lässt sich da kein Psychopathologisches Profil erstellen. Viele Patienten befinden sich jahrelang vor und nach Geschlechtsangleichenden Maßnahmen in psychologischer Betreuung. Die psychologische Betreuung ist und bleibt somit das non plus ultra im Hinblick auf Diagnostik, Mit-Therapie und eigentlich fast lebenslange Begleitung. Die psychologische Betreuung ist und bleibt somit das non plus ultra im Hinblick auf Diagnostik, Mit-Therapie und eigentlich fast lebenslange Begleitung.
Methodik und Material: Injektion von Kolonkarzinomzellen der Zellreihe CC531 subkapsulär in den linken Leberlappen bei 36 männlichen WAG-Ratten (Gewicht 180-220g). Induziert wurden zwei unterschiedlich starke Tumorkonzentrationen: Gruppe A (n = 18, Injektion von 1 Mio. Tumorzellen) und Gruppe B (n = 18, Injektion von 4 Mio. Tumorzellen). Messung der Tiere nach 14 Tagen am CT Siemens Somatom Sensation 64 und Analyse des Tumorvolumens mit dem Volume Viewer Plus von Centricity AW Suite. Unterschiedlich starkes Wachstum der Lebertumore führte zu einer Einteilung der Ratten in Gruppe A(1,2) (n = 12): Tumorvolumen <3,5cm3 und Gruppe B(1,2) (n = 12): Tumorvolumen ≥3,5cm3. Die volumenbezogene Therapie erfolgte an Tag 15 wie folgt: Bei jeweils 6 Tieren der Gruppen A1 und 6 Tieren der Gruppe B1 wurde eine systemische Chemotherapie mit 0,1mg/ml Mitomycin C (Standardtherapie) durchgeführt. Die andere Hälfte der Tiere (6 Tiere der Gruppe A2 und 6 Tiere der Gruppe B2) erhielten die doppelte Konzentration von 0,2mg/ml (< 10% der letalen Dosis). 6 Tiere dienten der pathologischen Auswertung, weitere 6 Tiere dienten als Kontrollgruppe. An Tag 25 erfolgte eine erneute Bestimmung des Tumorvolumens. Ergebnisse: Die Therapie wurde von allen Ratten gut toleriert. Das durchschnittliche Tumorvolumen betrug in A (1,2) 2,18cm3 +/- 0,82 (range: 0,55 – 3,42) und in Gruppe B (1,2) 4,52cm3 +/- 0,82 (range: 3,72 – 5,86). Das CT-follow up an Tag 25 ergab, dass eine erhöhte Mitomycinkonzentration zu einer Tumorregression von 20,55 % in der Gruppe A2, 21,03 % in B1 und 46,61% in B2 führte. In der Gruppe A1 zeigte sich ein Progress des Tumorvolumens von 51,38%. Schlussfolgerung: Chemotherapeutika werden in Abhängigkeit von Körpergewicht, Körpergröße und Körperoberfläche verabreicht. Einen neuartigen Ansatz stellt die tumorvolumenadaptierte Chemotherapie (TVACT) mit Mitomycin C dar, da große Tumorvolumen eine bessere Ansprechbarkeit auf Mitomycin C zeigen als kleinere. Die TVACT ist somit eine neue relevante Behandlungsoption bei der Behandlung von malignen Tumoren im Tiermodell. Hinsichtlich der wachsenden Bedeutung neuer Staging Systeme im avanzierten kolorektalen Karzinom sollte das Tumorvolumen auch als prognostischer Faktor berücksichtigt werden.
Die akustische Mikroskopie stellt ein neuartiges bildgebendes Verfahren zur zerstörungsfreien Werkstoffprüfung dar, das erst seit kurzem in der Medizin eingesetzt wird und bei dem reflektierte Ultraschallwellen zur Bilderzeugung verwendet werden. Auf diese Weise können neue Informationen bezüglich der Materialparameter des untersuchten Gewebes erlangt werden. Neben einer enorm großen Bandbreite an möglichen Auflösungen bietet diese Technik die Möglichkeit, opake Objekte zu durchdringen und ihr Inneres abzubilden. Durch seine nicht-destruktive Art und die Notwendigkeit einer Kopplungsflüssigkeit bietet diese mikroskopische Methode zudem die Option lebende Zellen und Gewebe zu untersuchen. Das Ziel der durchgeführten Arbeit war es, die Interpretation von akustischen Bildern des menschlichen Gewebes zu erleichtern. Zu diesem Zweck analysierten wir SAM-Abbildungen von Knochengewebe im Vergleich zu anderen Untersuchungsverfahren. Neben einer qualitativen Bewertung der Morphologie gleichartiger Strukturen wurden ausgedehnte morphometrische Messungen und energiedispersive Röntgenanalysen durchgeführt. Als Methoden für den qualitativen Vergleich wurden konventionelle mikroskopische Techniken wie Polarisations-, Fluoreszenz-, Durchlicht-, Auflicht- und Rasterelektronenmikroskopie sowie Mikroradiographie vergleichend verwendet. Der morphometrische Vergleich erfolgte zwischen ultraschall- und auflichtmikroskopisch erzeugten Abbildungen. Weiterhin wurde die Beziehung zwischen akustischen Grauwertdarstelllungen und energiedispersiven Röntgenanalysen bewertet. Als Untersuchungsmaterial dienten Mandibulaknochen von sieben Beagle-Hunden. Die Mandibula eines jeden Hundes wurde beidseits mittels Osteoskalpell nach Sachse (Bien Air, CH-Biel) und CO2-Laser (entwickelt im Center of Advanced European Studies and Research, D-Bonn) am Margo ventralis im unbezahnten Kieferabschnitt osteotomiert. Nach einer dreiwöchigen Heilungsphase wurden die Knochen entnommen und vor der Schnittfertigung in Polymethylmethacrylat eingebettet. Beim qualitativen Vergleich der Morphologie gleichartiger Strukturen fanden sich bei SAM-Abbildungen und bei Aufnahmen, die mit den anderen mikroskopischen Techniken erzeugt wurden, weitgehende Übereinstimmungen hinsichtlich gröberer morphologischer Merkmale wie Umriss, flächiger Ausdehnung und Lage von Perforationen. Diese Gemeinsamkeiten konnten sowohl an Kallusgewebe als auch an osteonalem Knochen beobachtet werden. Unterschiede fanden sich hinsichtlich feinerer morphologischer Merkmale wie der geometrischen Übereinstimmung im Detail und der flächigen Ausdehnung bei höherer Vergrößerung. Zudem stellte sich die Binnenstruktur von Kallus und osteonalem Knochengewebe differenzierter dar als mit Hilfe der anderen mikroskopischen Techniken. Morphometrische Messungen zeigten, dass Strukturen, die im Bereich des Osteotomiespalts gemessen worden waren, im Ultraschallbild tendenziell größer abgebildet werden als in Auflichtaufnahmen. Im Gegensatz dazu wurden Strukturen im Bereich des kortikalen Knochens im ultraschallmikroskopischen Bild eher unterschätzt. Diese Ungenauigkeit bei der Abbildung von Strukturen im Ultraschallbild lässt sich am ehesten dadurch erklären, dass durch unterschiedliche Eindringtiefen des Ultraschalls auch unterschiedlich dicke Ebenen der Probe abgebildet werden. Wird eine dickere Schicht der Probe durch das akustische Mikroskop dargestellt als durch das Auflichtmikroskop, so kann es zu einer Überschätzung der Strukturen kommen und umgekehrt. Anhand energiedispersiver Röntgenanalysen konnte ebenfalls gezeigt werden, dass die Zunahme des Calcium- bzw. des Phosphorgehalts nicht alleine eine Aufhellung der Grautöne im Ultraschallbild verursachen kann. Auch der Vergleich mit Abbildungen der Elektronenmikroskopie ließ Unterschiede der Grauwerte erkennen. Demzufolge wird das akustische Bild nicht nur durch den Mineralgehalt, die Dichte und die atomare Zusammensetzung des Knochengewebes beeinflusst. Damit konnte mit der vorliegenden Untersuchung nachgewiesen werden, dass die Ultraschallmikroskopie ein neuartiges Verfahren darstellt, mit dem sich Knochen nicht nur in seiner Mikrostruktur morphologisch darstellen lässt, sondern mit der sich auch neuartige Informationen über funktionelle Parameter auf Nanoebene gewinnen lassen. Die Bedeutung dieser enormen Möglichkeiten sind im Moment noch nicht abschätzbar, weitere Untersuchungen müssen folgen.
In dieser Arbeit geht es um eine theaterwissenschaftliche Analyse ausgewählter Stücke des Theaterregisseurs und Autors René Pollesch. Bei den Stücken handelt es sich um die Heidi Hoh-Trilogie (1999-2001), Insourcing des Zuhause (2001), Der Leopard von Singapur (2003) und Cappuccetto Rosso (2005). Die Sujets und Stilmerkmale des Theaters von Pollesch werden dabei mittels der Theorien des Philosophen Jacques Rancière als Elemente eines politischen Theaters interpretiert, dem es wesentlich darum geht, alle Formen der Regelhaftigkeit, der symbolischen Ordnung oder der etablierten Sichtbarkeit durch Unterbrechung der Regel, Aufhebung der Ordnung, Sichtbarmachung des Unsichtbaren oder Verstimmlichen des Stimmlosen, aber auch durch Formen einer subversiven Wiederholung und Aneignung kritisierter Sicht- und Sprechweisen zu provozieren. Um das Politische bei Pollesch zu erkunden, werden Rancières Theorietexte „angewandt", indem sie während der analytischen Betrachtung der Pollesch-Abende in ästhetische Strategien umgewandelt werden. Dies geschieht auf drei Ebenen: 1: Darstellungsform, 2: Arbeitsweise, 3: Die auf der Bühne sichtbar agierenden Subjekte. Rancière erscheint mit seinem Konzept einer gegebenen gesellschaftlichen Ordnung als „Aufteilung des Sinnlichen" ideal geeignet, um das Politische auf eben diese drei genannten Ebenen aufzuspüren. Sein Modell von Politik, so zeigt diese Arbeit, erlaubt damit die ästhetische Praxis René Polleschs auf verschiedenen Ebenen als politisch zu kennzeichnen, aber es führt auch auf einige Aporien, denen diese Praxis gerade in ihrem politischen Anspruch ausgeliefert ist.
Zielstellung: Die Untersuchung des klinischen Effekts der topischen subgingivalen Applikation eines 14%igen Doxycyclin-Gels zusätzlich zu mechanischem Debridement (DEB) während der unterstützenden Parodontitistherapie (UPT) auf die Furkationsbeteiligung mehrwurzeliger Zähne. Material und Methoden: Bei 39 UPT-Patienten mit zumindest vier Zähne mit Sondierungstiefen (ST) ≥ 5 mm und Bluten nach Sondieren (BOP) (davon mindestens eine Furkationsstelle) erfolgte ein DEB aller Stellen mit ST ≥ 4mm. Nach Randomisierung wurde bei 19 Patienten zusätzlich ein 14%iges Doxycyclin-Gel subgingival instilliert (DEB & DOXY). Die klinischen Parameter wurden vor der Therapie (Baseline) sowie 3, 6 und 12 Monate danach erhoben. Der zusätzliche Nutzen des Doxycyclin-Gels wurde bestimmt als 1) Verbesserung der Furkationsbeteiligung und 2) Einfluss auf die Häufigkeit der Reinstrumentierung während der 12 Monate. Ergebnisse: Insgesamt wurden 323 Furkationsstellen (Grad 0: 160; Grad I: 101; Grad II: 18; Grad III: 44) behandelt (DEB: 165; DEB & DOXY: 158). DEB & DOXY resultierte nach 3 Monaten in einer stärkeren Reduktion der Furkationsbeteiligung als alleiniges DEB (p = 0,041). Allerdings führte DEB & DOXY zu keiner Reduktion der Häufigkeit der Reinstrumentierung während der 12 Monate. Schlussfolgerung: Die topische subgingivale Doxycyclingabe zusätzlich zu DEB hat einen kurzzeitigen Effekt auf die Furkationsbeteiligung. Aber es reduziert nicht die Häufigkeit der Reinstrumentierung über einen Zeitraum von 12 Monaten.
Die chronische Hepatitis C Virus-Infektion ist eine der häufigsten Ursachen für Leberzirrhose und das hepatozelluläre Karzinom. CD81 ist ein Oberflächenprotein aus der Familie der Tetraspanine, welches auf Hepatozyten und Lymphozyten exprimiert ist. CD81 interagiert mit dem Hepatitis C Virus-Hüllprotein E2. Die Interaktion ist essentiell für die Infektion von Hepatozyten durch das Hepatitis C Virus und beteiligt an der Hepatitis C Virus assoziierten Immunmodulation, welche in Zusammenhang mit der Chronifizierung und dem Auftreten von autoimmunologischen Phänomenen steht. Verschiedene Untersuchungen haben gezeigt, dass CD81 von Lymphozyten sezerniert werden kann. Die Bedeutung der CD81-Serumkonzentration wurde bislang nicht untersucht. Um neue Erkenntnisse über die Rolle von CD81 innerhalb der Pathogenese der chronischen Hepatitis C zu erlangen, wurde in der vorliegenden Arbeit die CD81-Serumkonzentration bei Patienten mit chronischer Hepatitis C untersucht. Nach Anreicherung von CD81 mittels differentieller Zentrifugation konnte durch Anwendung des Western Blot-Verfahrens gezeigt werden, dass CD81 im Serum bei Patienten mit chronischer Hepatitis C im Vergleich zu gesunden Probanden signifikant erhöht ist (p = 0,001). Im Hinblick auf die CD81-vermittelte Immunmodulation wurde anschließend die CD81-Serumkonzentration mit der Höhe der Lebertransaminase GPT als Surrogatmarker für die entzündliche Aktivität der Leber verglichen. Die Untersuchungen ergaben eine signifikante Korrelation zwischen der CD81- Serumkonzentration und der Höhe der GPT (Korrelationskoeffizient r = 0,334, p = 0,016). Im nächsten Schritt wurde der Einfluss der antiviralen Therapie auf die CD81- Serumkonzentration untersucht. Bei Patienten mit chronischer Hepatitis C und erhöhten Transaminasen, die nach Therapie ein dauerhaftes Ansprechen entwickelten, zeigte sich unter Therapie ein signifikanter Abfall der CD81-Serumkonzentration im Vergleich zu der vor Therapie (p = 0,045). Zusammenfassend zeigen diese Ergebnisse der Promotionsarbeit, dass CD81 im Serum nachweisbar ist, dass die CD81-Serumkonzentration bei Patienten mit chronischer Hepatitis C erhöht ist und dass es einen Zusammenhang zwischen Leberentzündung und Therapieansprechen gibt. Diese Ergebnisse deuten daraufhin, dass CD81 für die Pathogenese der Hepatitis C Virus-Infektion möglicherweise von Bedeutung ist.
Die Wirkungen von Acrylamid beschäftigen seit Jahrzehnten Mediziner, Toxikologen, Biologen und Analytiker. Zwar konnte eine kanzerogene Wirkung beim Tier eindeutig nachgewiesen werden, der Nachweis dieser Wirkung beim Menschen ist aber bis heute nicht erbracht. Bis 2000 wurde angenommen, dass Acrylamid ausschließlich technisch erzeugt vorkommt und der Mensch Acrylamid nur aus dieser Quelle aufnimmt. Hierauf beruhen Grenz- und Richtwerte auf nationaler und internationaler Ebene, sowohl am Arbeitsplatz als auch für Trinkwasser und Verpackungsmaterialien. Neben dem Acrylamidgehalt in technischen Produkten, Wasser und Luft gelang der Nachweis der aufgenommenen Acrylamidmenge über Acrylamid-Hämoglobin-Addukte im Blut erst 1995, nachdem der Acrylamid-Metabolismus aufgeklärt worden war und die analytischen Methoden verfeinert waren. Die Annahme, dass Acrylamid ausschließlich in technischen Prozessen gebildet wird, war jedoch nicht vereinbar mit Erkenntnissen, dass auch Probanden einen erhöhten Acrylamidspiegel im Blut aufzeigten, die nicht mit Acrylamid am Arbeitsplatz in Kontakt gekommen waren. Im Jahr 2002 gelang es eindeutig nachzuweisen, dass Acrylamid in vielen, meist alltäglich verzehrten Lebensmitteln abhängig von der Zubereitungsart zu finden ist. Mit Hilfe einer verbesserten Analytik konnten schließlich hohe Acrylamidmengen in zahlreichen, vor allem frittierten Lebensmitteln, belegt werden, die die Belastung aus technischen Quellen oft weit überschritten. Die Tatsache, dass die Nahrung der allgemeinen Bevölkerung deutlich Acrylamid-belastet ist, hat die Bewertung der Acrylamid-Toxizität und die Maßnahmen zum Gesundheitsschutz nachhaltig verändert. Durch den späten Nachweis der Acrylamid-Aufnahme mit Lebensmitteln sind viele frühere Annahmen für die Gesundheitsbewertung irrig, die hieraus gezogenen Schlußfolgerungen nicht haltbar. Seit 2002 ist die Reduktion der Lebensmittelbelastung in den Mittelpunkt gerückt, die Arbeitsplatzbelastung hat - mit Ausnahme der Schleimhautreizung - keine weitere Berücksichtigung erhalten. Die hohe Belastung von Lebensmitteln stellt bisherige Richtlinien und Expositionsauflagen in Frage, der fehlende bisherige epidemiologische Nachweis, der aus Tierversuchen eindeutig nachweisbaren Karzinogenität stellt für Acrylamid auch die bisherigen Modell-Annahmen der Krebsentstehung durch Umweltschadstoffe in der „one hit-Hypothese“ in Frage.
Im Rahmen dieser Arbeit ist es gelungen, eine weltweit einmalige Messapparatur zu entwickeln, mit der Wasserstoffmolekülionen mittels kurzer Laserpulse ionisiert und die Reaktionsprodukte kinematisch vollständig vermessen werden können. Es wird dazu eine an die Coltrims-Technik angelehnte Detektionsmethode genutzt, bei der sowohl Protonen als auch Elektronen über den vollen Raumwinkel nachgewiesen werden können. Die H2+ -Ionen stammen aus einer Hochfrequenz-Ionenquelle und werden auf 400keV beschleunigt. Die Besetzungshäufigkeit der Vibrationsniveaus entspricht daher der Franck-Condon-Verteilung für den Übergang aus dem Grundzustand des neutralen Wasserstoffmoleküls in den elektronischen Grundzustand des Molekülions: H2 (xPg, ν = 0) → H2+ (1sσg, ν′) Dieser Ionenstrahl wird mit einem 780 nm Laserpuls der Pulslänge 40 fs überlappt. Nach der Reaktion fragmentiert das Molekülion entweder über den Dissoziationskanal H2+ + nhν ⇒ H + H+ oder über eine Ionisation gefolgt von einer Coulomb-Explosion: H2+ + nhν ⇒ H+ + H+ + e−. Die Projektile werden nach einer Driftstrecke von etwa 3 m auf einem Ionendetektor nachgewiesen. Für den Nachweis der Elektronen wurde ein spezielles Spektrometer konzipiert, das eine Unterdrückung ungewollter Elektronen erlaubt und so die Messung der Elektronen ermöglicht. Um Elektronen auszublenden, die vom Laser aus dem Restgas ionisiert werden, ist der Elektronendetektor in Flugrichtung der Ionen versetzt angebracht. Durch die unkonventionelle Ausrichtung des Lasers in einem Winkel von 20◦ relativ zur Flugrichtung der Ionen können vom Laser erzeugte Elektronen nur dann den Elektronendetektor erreichen, wenn sie aus dem bewegten Bezugsystem der Projektile stammen. Diese Unterdrückung macht die Messung der Elektronen erst möglich, hat aber auch eine nachteilige Geometrie der Verteilungen gegenüber den Detektorebenen zur Folge. Durch die Ausnutzung der Projektilgeschwindigkeit ist überdies die Benutzung eines B-Feldes zur Verbesserung der Flugzeitauflösung der Elektronen nicht möglich. Um eine Überlappung des Ionenstrahls mit dem Laserfokus zu erreichen, wurde im Bereich der Reaktionszone ein System zur Visualisierung der Strahlpositionen integriert. Dieses kann überdies für eine Intensitätseichung bei linear polarisiertem Licht verwendet werden. Bei der Reaktion kommt es durch die vergleichsweise lange Pulsdauer schon bei relativ niedrigen Intensitäten zu Dissoziationsprozessen. Das dissoziierende Molekül erreicht noch während der ansteigenden Flanke des Laserpulses auf diese Weise Abstände, bei denen der Prozess der Charge-Resonance-Enhanced-Ionization (CREI) stattfinden kann. Auch die in einem sehr engen Winkelbereich um die Polarisationsrichtung des Lasers liegende Winkelverteilung der gemessenen Protonen deutet darauf hin, dass CREI der dominante Ionisationsprozess ist. Durch die vorausgehende Dissoziation nimmt das Molekül schon vor der Ionisation eine kinetische Energie auf, so dass die gemessene KER-Verteilung einer Summe aus KERDissoziation und KERIonisation darstellt. Ein Vergleich mit den KER-Spektren des Dissoziationsprozesses zeigt, dass die aufgenommene Energie durch Dissoziation zu einem überwiegenden Anteil in einem Bereich von 0, 6 ± 0, 35 eV besitzt, während die Gesamt-KER-Verteilung deutlich höhere Werte bis zu 6 eV aufweist. Dies ermöglicht, aus der gemessenen KER-Verteilung den internuklearen Abstand zum Ionisationszeitpunkt näherungsweise zu bestimmen. Die gemessenen Elektronen weisen, ebenso wie die Protonen, eine scharfe Ausrichtung entlang der Laserpolarisation auf, was durch den Einfluss des Lasers auf dieser Achse nicht verwunderlich ist. Bei zirkularer Polarisation dagegen findet eine Netto-Beschleunigung der Elektronen senkrecht zur Richtung des elektrischen Feldes zum Ionisationszeitpunkt statt, sodass die Messung der Elektronenimpulse eine geeignete Messgröße zur Untersuchung des Ionisationsprozesses darstellt. Auf diese Art konnten Winkelverteilungen der Elektronen bezüglich der internuklearen Achse innerhalb der Polarisationsebene gemessen werden. Abhängig von KER und Elektronenergie konnte dabei eine Verdrehung der Verteilung gegenüber den klassisch erwarteten 90◦ relativ zur internuklearen Achse festgestellt werden. Die Winkelverteilung rotiert dabei mit steigendem KER entgegen des Drehsinns. Dies widerspricht der gängigen Vorstellung einer Tunnelionisation, bei der nur die Beschleunigung des Elektrons im Laserfeld eine Rolle spielt und der Einfluss des Coulomb-Potentials vernachlässigt wird. Für höhere Elektronenergien zeigt sich eine zweite konkurrierende Struktur, die für die höchsten Energien die sonst vorherrschende erste Struktur sogar dominiert. Da sich in den Protonenspektren für linear polarisiertes Licht kein Einfluss einer Ionisationsenkrecht zur Polarisationsrichtung findet, erscheint dies als Grund für die zweite Struktur in den Elektron-Winkelverteilungen als unwahrscheinlich. Eine stichhaltige und gestützte Erklärung gibt es bisher weder für die Rotation der ersten Struktur noch für die Herkunft der zweiten. Dies zeigt deutlich, dass es auch für dieses einfachste Molekülsystem noch einen erheblich Handlungsbedarf sowohl auf theoretischer als auch von experimenteller Seite gibt. Da dieses Experiment den ersten experimentellen Zugang für die direkte Untersuchung der Elektronimpulse bei der Ionisation von H2+ -Ionen in kurzen Laserpulsen darstellt, bietet sich hier die bisher einzige Möglichkeit, dieses Verhalten experimentell zu untersuchen.
Untersuchung der Konformation und Dynamik von RNA mit Hilfe fluoreszierender Farbstoffmoleküle
(2010)
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung der konformationellen und elektronischen Eigenschaften sowie der Dynamik verschiedener RNA-Systeme. Zur Durchführung dieser Experimente wurde zusätzlich zu bereits vorhandenen statischen und zeitaufgelösten Absorptionsspektrometern im Rahmen dieser Arbeit eine Apparatur zur Messung von Fluoreszenzlebensdauern entwickelt, die durch die integrative Verwendung zweier verschiedener, etablierter Technologien (TCSPC und Aufkonvertierung) über einen weiten Zeitbereich von 9 Größenordnungen (100 fs - 0,1 ms) operiert. Mit diesem Aufbau konnten neben den RNA-Studien wichtige Beiträge zum Verständnis der Isomerisierung eines Retinalproteins, des Transportprozess des Membrantransportproteins TbSMR und der im Infraroten liegenden Fluoreszenz des Radikalkations von Astaxanthin gewonnen werden. Der Schwerpunkt der vorliegenden Arbeit liegt auf der Untersuchung verschiedener RNA-Systeme: So werden die optischen Eigenschaften einer 1-Ethinylpyren-modifzierten RNA-Adeninbase allein und in RNA-Strängen eingebunden untersucht. Statische Fluoreszenzmessungen zeigen einen ausgeprägten Ladungstransfercharakter des Chromophors und eine generell große Wechselwirkung zwischen Ethinylpyren und Adenin, die in einer substanziellen Änderung der optischen Eigenschaften des Pyrens resultiert. Die Untersuchung der schnellen Photodynamik von Pyrenadenin zeigt zudem eine Verringerung der Lebensdauer von Pyren um etwa 2 Größenordnungen. Pyrenadenin zeigt sowohl Fluoreszenz eines neutralen (100-200 ps), als auch eines energetisch tiefer liegenden Ladungstransferzustands (1-2 ns). Die Formationszeit des Ladungstransferzustandes fällt mit steigender Polarität des Lösemittels. Eingebunden in Modell-RNA-Stränge ist Fluoreszenzquantenausbeute des Chromophors ein deutlicher Indikator für seine Interkalation. Nur in der stabileren Umgebung von GC-Basenpaaren ist das Pyren in der Lage, sich dauerhaft innerhalb des Duplex aufzuhalten, während in einer flexibleren AU-Umgebung eine Position außerhalb des RNA-Duplex präferiert wird. Transiente Absorptionsmessungen zeigen, dass die Photophysik des in RNA eingebundenen Pyrenadenins nur kleine Variationen im Vergleich zur Photophysik des Labels allein aufweist. Die deutliche Abnahme der Quantenausbeute des interkalierten Chromophors geht hauptsächlich auf Kosten der langlebigeren Ladungstransferfluoreszenz, so dass interkaliertes Pyren insgesamt schneller in den Grundzustand zurückkehrt als nicht interkaliertes. Mit Hilfe eines doppelt modifizierten Duplex, bei dem sich jeweils ein Farbstoff an einem der beiden Stränge befindet, kann nachgewiesen werden, dass aufgrund von Exzimerwechselwirkungen eine Verschiebung des Fluoreszenzmaximums von 35 nm auftritt. Kurzzeitspektroskopische Messungen zeigen Signale, die als Superposition von Monomeren und Exzimeren interpretiert werden können, wobei die Lebensdauer des letzteren mit 18,5 ns die der Monomerkomponente um ein Vielfaches übertrifft. Ein weiterer Teil dieser Arbeit beschäftigt sich mit einer Studie zur Bindung des fluoreszenten Liganden Tetrazyklin an das Tetrazyklin bindende Aptamer. Hier wird auf Basis verschiedener Mutanten mit Hilfe des TCSPC eine Analyse der Stabilität der Bindetasche sowie mit der Stopped-Flow-Methode eine Beobachtung des Bindungsprozesses durchgeführt. Insgesamt folgt die Bindung des Tetrazyklins an das Aptamer einer zweistufigen Kinetik, deren zweiter Schritt irreversibel ist. Die Bindung läuft, verglichen mit anderen Aptameren, sehr schnell ab. Während die Mutationen von A13 und A50,die direkte Kontakte zum Substrat bilden, nur einen leichten Einfluss auf beide Bindungsschritte ausüben, führt eine Mutation der für die Präformation verantwortlichen Base A9 zu einer Verlangsamung des Bindungsprozesses um mehr als einen Faktor 20 durch eine immens gesteigerten Rückreaktionsrate des ersten Bindungsschritts. Hieraus lässt sich schließen, dass bei fehlender Präformation des Aptamers nur wenige Tetrazyklinmoleküle ein für vollständige Bindung geeignetes Aptamer vorfinden. Die Bindung an A13 und A50 geschieht bereits im ersten Schritt des Bindungsprozesses. Ferner konnte anhand von Lebensdauermessungen gezeigt werden, dass nach dem Wildtyp die Mutante A9G die stabilste Bindetasche aufwies. Das Fehlen eines direkten Kontaktes wirkt sich deutlich stärker aus. Insbesondere führt die Abwesenheit der Fixierung des Gegenions durch A50 zu der instabilsten Bindetasche. Wie in dieser Arbeit gezeigt wird, ist die zeitaufgelöste optische Spektroskopie insbesondere in Verbindung mit fluoreszierenden Molekülen ein ausgezeichnetes Mittel zur Beobachtung von Struktur und Dynamik von RNA. Die Empfindlichkeit von Fluoreszenz auf die Veränderung der Umgebung des Chromophors erlaubt es, Konformationsdynamik und elektronische Konfigurationen in Echtzeit zu beobachten.
Orthopockenviren sind große DNA-Viren, die im Zytoplasma der Wirtszelle replizieren und für über 200 Proteine kodieren. Sie besitzen ein breites Wirtszellspektrum (host-range) und modulieren auf komplexe Art und Weise zelluläre Prozesse, um ihre Replikation zu gewährleisten. Zu diesem Genus der Familie der Pockenviren gehört auch das modifizierte Vacciniavirus Ankara (MVA). MVA ist ein hoch attenuiertes, replikationsdefizientes Impfvirus, dem im Vergleich zu ursprünglichen Vacciniavirus-Stämmen viele virale Genfunktionen fehlen. Zu diesen verlorengegangenen Genen zählen so genannte host-range-Gene, die für das breite Wirtszellspektrum des Vacciniavirus (VACV) verantwortlich sind, deren molekulare Funktion aber größtenteils unbekannt ist. Diese Arbeit befasste sich zum einen mit der Untersuchung der Rolle der host-range-Gene K1L und C7L in der MVA-Infektion. Zum anderen sollte geprüft werden, ob der im MVA-Genom unvollständige Leserahmen F11L durch Wiederherstellung seiner Funktionalität den Wirtstropismus von MVA erweitern kann. Das Fehlen von K1L und C7L in MVA ist mit dem Verlust der späten viralen Genexpression verbunden. Als mögliche Ursache hierfür wurde in dieser Arbeit die Phosphorylierung des eukaryotischen Translationsinitiationsfaktors 2alpha (eIF2alpha) entdeckt, welche zum Abbruch der Proteinsynthese in der infizierten Zelle führt. Unter den möglichen Kinasen wurde die Proteinkinase R (PKR) als das verantwortliche Schlüsselenzym identifiziert und somit gezeigt, dass das K1- und C7-Protein den anti-viralen PKR-eIF2alpha-Signalweg inhibieren. Es stellte sich heraus, dass die eIF2alpha-Phosphorylierung alleine jedoch nicht für das Fehlen der späten Genexpression verantwortlich ist. Neben dem inhibitorischen Einfluss auf den PKR-eIF2alpha-Signalweg zeigte sich, dass C7 die Aktivierung des NFKB-Signalwegs reduziert, welcher für eine anti-virale Antwort der Wirtszelle wichtig ist. Ein weiterer Ansatz zur Aufklärung der K1- und C7-Funktion bestand darin, zelluläre Interaktionspartner zu identifizieren. Hierbei konnte das heterogene nukleäre Ribonukleoprotein K (HNRPK) als möglicher Interaktionspartner von C7 entdeckt werden. Neben den bisher bekannten host-range-Genen gibt es vermutlich weitere Gene, die den Wirtsbereich des VACV definieren. Das im MVA-Genom defekte F11L-Gen war ein guter Kandidat für eine solche Genfunktion, da es bei der Virionenmorphogenese, Virusausbreitung und der Migration VACV-infizierter Zellen eine Rolle zu spielen scheint. Deshalb wurde ein rekombinantes MVA mit vollständiger F11L-Gensequenz konstruiert und das Wirtszellspektrum dieses Virus untersucht. Die Reparatur des F11L-Gens ermöglichte MVA die Induktion von Zellbewegung nach Infektion, jedoch blieben seine unvollständige Morphogenese und eingeschränkte Vermehrungsfähigkeit in Säugetierzellen unbeeinflusst. F11L hat daher zumindest keine selbstständige Funktion als VACV host-range-Gen. Die Ergebnisse dieser Arbeit sind ein Beitrag zum besseren Verständnis der komplexen Virus-Wirts-Interaktionen des VACV sowie des eingeschränkten Wirtstropismus des Impfvirus MVA.
Ziel dieser Arbeit war die Aufklärung lichtinduzierter Strukturänderungen verschiedener photoschaltbarer Moleküle durch zeitaufgelöste Infrarotspektroskopie. Hierzu war es notwendig, eine komplexe Messapparatur zu konzipieren, aufzubauen und zu optimieren. Das entwickelte Anreg-/Abtast-Experiment ermöglicht die Messung kleinster transienter Absorptionsänderungen (delta A<1E-5) im Spektralbereich von 1000 cm^-1 bis 2500 cm^-1 mit einer Zeitauflösung von etwa 0,3 ps. Es können Anregungspulse im Bereich von 258nm bis über 600nm generiert werden. Über ein computergesteuertes Wellenplättchen kann die Polarisation des Anregungslichtes während der Datenaufnahme variiert werden, was eine Auswertung hinsichtlich der molekularen Anisotropie ermöglicht. Die eingesetzten Probenzellen gestatten die Untersuchung geringster Probenmengen (V <20µL) bei Temperaturen bis zu 50°C. Nitrophenylacetat (NPA) wurde hinsichtlich seiner Photodecarboxylierungsreaktion untersucht. Für alle drei Konstitutionsisomere konnte nachgewiesen werden, dass die Freisetzung von CO2 innerhalb von 1 ns erfolgt. Es zeigen sich signifikante Unterschiede zwischen den Reaktionsverläufen der drei Konstitutionen, wobei die erhaltenen Amplituden der Photoproduktspektren mit den bekannten Decarboxylierungsquantenausbeuten korrelieren. Die globale Analyse ergibt einen multiexponentiellen Aufbau des CO2-Signals. Im Fall von meta- und para-NPA erfolgt die Abspaltung von CO2 über einen dominanten Zerfallskanal mit einer Zeitkonstante von t~200 ps. Quantenchemische Rechnungen legen nahe, dass dieser Hauptreaktionspfad über den Triplettzustand verläuft. Bei ortho- NPA wird dieser Zerfallskanal effektiv gequencht, was mit einer schnellen Deaktivierung des angeregten Singulettzustandes durch einen intramolekularen Protonentransfer erklärt wird. Nach diesen Messungen steht fest, dass meta-Nitrophenylacetat hervorragend als caged compound für CO2 geeignet ist. Die Primärdynamik von solubilisiertem Proteorhodopsin (PR) in D2O wurde im infraroten und sichtbaren Spektralbereich sowohl bei saurem als auch bei alkalischem pD-Wert untersucht. Dies erlaubt den direkten Vergleich der in beiden Spektralbereichen gemessenen Daten. Der primäre Protonenaktzeptor Asp97 liegt dabei entweder protoniert (pD=6,4) oder deprotoniert (pD=9,2) vor. Die transienten vis-Absorptionsspektren ergaben, wie bei PR in H2O, einen biexponentiellen Zerfall des angeregten Zustands und die gleichzeitige Bildung des PRK-Photoproduktes. Die Abweichung der bei PR in D2O ermittelten Werte von den publizierten Zeitkonstanten der H2O-Messung wird als kinetischer Isoptopeneffekt interpretiert. Dieser variiert mit dem pD-Wert, was auf Unterschiede der Wasserstoffbrückenbindungsnetzwerke in der Retinalumgebung hinweist. Die Signaturen der transienten Infrarotspektren werden den C=C- und C=N-Moden des Retinals sowie der Amid I-Mode des Proteins zugeordnet. Es konnte ebenfalls die Bildung des PRK-Produktes nachgewiesen werden, wobei die Isomerisierungsquantenausbeute des Retinals unabhängig von der Protonierung von Asp97 ist. Die im IR bestimmten Zeitkonstanten sind dabei unabhängig vom pD-Wert und weichen von den im Sichtbaren ermittelten Werten ab. Dieser Befund wird mit dem Einfluss der molekularen Temperatur auf die transienten IR-Spektren und dem Auftreten von Kühlprozessen erklärt. Zusätzlich zum Wildtyp-Protein wurde die PR-D97N-Mutante als Modellsystem für PR im sauren pH-Bereich ebenfalls im vis- und IR-Bereich untersucht. Die dabei erzielten Ergebnisse stehen im Einklang mit den bisherigen Ausführungen. Der geringe kinetische Isotopeneffekt weist auf ein ähnliches Wasserstoffbrückennetzwerk wie beim Wildtyp unter sauren Bedingungen hin. Als letztes wurde ein synthetisches Modellcollagen untersucht. Die Seitenkettenverbrückung der Peptidsequenz mit einem Azobenzol-basierten, künstlichen Photoschalter sollte eine lichtinduzierte Entfaltung der Tertiärstruktur ermöglichen. Der isolierte Photoschalter und die gekoppelte Sequenz wurden zunächst unter Gleichgewichtsbedingungen sowohl im UV/vis- als auch im IR -Bereich umfangreich spektroskopisch charakterisiert. Diese Messdaten lagen zum großen Teil bereits vor und wurden in dieser Arbeit einer detaillierten Auswertung unterzogen. Für den isolierten Schalter konnte im IR-Bereich eine umfassende Bandenzuordnung erstellt werden. Dabei wird im photostationären Gleichgewicht eine reversible trans-> cis-Isomerisierung festgestellt, welche keine Temperaturabhängigkeit aufweist. Darüberhinaus wurden polarisationsabhängige, transiente IR-Spektren des isolierten Azoschalters für die trans->cis- und die cis->trans-Isomerisierungsrichtung aufgenommen. Die instantan auftretenden, markanten Differenzsignale können den Amid I- und Amid II-Moden der im Schalter enthaltenen Peptidbindungen sowie den Phenylmoden zugeordnet werden. Die extrahierten kinetischen Parameter sind für beide Isomere nahezu identisch, was durch einen dominanten Beitrag molekularer Kühlprozesse erklärt werden kann. Aufgrund der geringen Isomerisierungsquantenausbeute (< 10 %) können die Differenzspektren der photostationären Gleichgewichte nicht in den Produktspektren dieser Messungen reproduziert werden. Hinsichtlich der ermittelten Anisotropieparameter ergeben sich kleine Unterschiede zwischen beiden Datensätzen. Zusammen mit theoretischen Modellierungen werden diese in Zukunft genauere Aussagen über die Strukturen der Isomere erlauben. Die UV/vis-Absorptionsspektren des gekoppelten Systems zeigen, dass die Absorptionsbanden des Azoschalters durch die Kopplung an das Collagen nicht signifikant beeinflusst werden. Im IR-Absorptionsspektrum konnten wichtige Amid I-, Amid II- und Amid II0-Banden des Azoschalters und der Peptidsequenz sowie eine große Anzahl weiterer Banden zugeordnet werden. Temperaturabhängige Absolut- und Differenzspektren im UV/vis- und IR-Bereich zeigen eine irreversible thermische Denaturierung der Collagentripelhelix ab etwa 50°C. Das verwendete, deuterierte Lösungsmittelgemisch führt zu einem H/D-Austausch. Anhand der Amid II-Bande der in der tripelhelikalen Struktur geschützten Glycine kann die Existenz der Collagenstruktur und ihre Entfaltung nachgewiesen werden. Die Amplituden der photostationären Differenzspektren sind jedoch kleiner als beim isolierten Schalter, was auf eine verringerte Isomerisierungsquantenausbeute hinweist. Die bei Erwärmung beobachtete Vergrößerung der Differenzsignale wird mit einer effizienteren Isomerisierung nach dem Aufschmelzen der Tripelhelix erklärt. Für die trans->cis-Isomerisierungsrichtung wurden transiente IR-Spektren des Azocollagens bei unterschiedlichen Temperaturen aufgenommen. Alle instantan auftretenden Differenzsignale können auf die Schwingungsmoden des Azoschalters zurückgeführt werden. Bei einer Temperatur von 50°C lässt sich ein Einfluss der Peptidsequenz auf die transienten Spektren nicht nachweisen, was mit einer aufgeschmolzenen Tertiärstruktur im Einklang ist. Hingegen wird bei 20°C das Ausbleichen von Amid I-Schwingungsbanden der Peptidsequenz beobachtet, was eindeutig einen Energietransfer auf diese Moden zeigt. Bei 35°C sind die Bleichsignale des Collagens in diesem Bereich bereits deutlich abgeschwächt. Die transienten Spektren des isolierten Azoschalters besitzen keine derartige Temperaturabhängigkeit.
Die Rolle von Antiepileptika im Zusammenhang mit dem Auftreten letaler kardialer Arrhythmien wird kontrovers diskutiert. Zum aktuellen Zeitpunkt ist bei Patienten mit Epilepsie die Ursache für die im Vergleich zur Normalbevölkerung erhöhte Mortalität nicht hinreichend geklärt. Die Ätiologie und Pathophysiologie des Sudden unexpected death in epilepsy patients (SUDEP) ist nur teilweise bekannt, wodurch die Durchführung präventiver Maßnahmen nur bedingt möglich ist. Es konnten bestimmte Risikofaktoren für das Auftreten eines SUDEP identifiziert werden, wobei unter anderem die antikonvulsive Polytherapie einen unabhängigen Risikofaktor darstellt. Bezüglich der pathogenetischen Mechanismen spielen neben der Entstehung eines neurogenen pulmonalen Ödems und einer zentralen Apnoe auch kardiale Arrhythmien eine bedeutende Rolle. Valproinsäure als ein sehr häufig eingesetztes Antiepileptikum wird verdächtigt, eine Verlängerung der QT-Zeit im Elektrokardiogramm (EKG) zu bewirken. Eine Verlängerung der Plateauphase des Aktionspotentials führt zu einer instabilen Repolarisation, wodurch einfallende frühe Nachdepolarisationen bereits wieder ein Aktionspotential auslösen können. Ein erworbenes Long-QT-Syndrom (LQTS), zu dem auch die medikamentenbedingte QT-Verlängerung zählt, birgt das Risiko, durch die Auslösung von Herzrhythmusstörungen im Sinne von Torsade de Pointes an einem plötzlichen Herztod zu versterben. Im Rahmen dieser prospektiven Studie wurden 50 Kinder mit Epilepsie unter der Therapie mit Valproinsäure bezüglich des Auftretens kardialer Nebenwirkungen untersucht. Das Studienprotokoll beinhaltete ein standardisiertes EKG mit Bestimmung der Zeiten, Lagetypen, Hypertrophie- und Schädigungszeichen. Parallel wurde die Dosierung von Valproinsäure und deren Plasmaspiegel bestimmt. Ziel der vorliegenden Arbeit war es herauszufinden, ob die antikonvulsive Therapie mit Valproinsäure durch die Auslösung eines medikamentenbedingten LQTS zu einem erhöhten kardialen SUDEP-Risko bei pädiatrischen Epilepsiepatienten führen könnte. Die 25 weiblichen und 25 männlichen Patienten im mittleren Alter von 12,2 Jahren wurden wegen verschiedener Epilepsieformen behandelt. Sie nahmen Valproinsäure durchschnittlich über eine Zeitdauer von 5,8 Jahren ein (Range 3 Monate bis 32 Jahre), wobei 58% eine Monotherapie, 26% in Zweier- und 16% eine Dreier-56 Kombinationstherapie erhielten. Die durchschnittliche Dosierung lag bei 26,6 mg/ kgKG/ Tag (Range 10,5 bis 63,8 mg/ kgKG/ Tag), der im Plasma gemessene Valproinsäure-Spiegel zwischen 19,7 und 147,4 μg/ml (Mittelwert 88,8 ± 24,3 μg/ml; Median 91 μg/ml). Die gemessenen EKG-Zeiten lagen alle im altersentsprechenden Normbereich: --> PR-Intervall: Range 100-170 ms, Median: 124 ms, Mittelwert: 126,7 ± 18,5 ms --> QRS-Dauer: Range 56-108 ms, Median 79 ms, Mittelwert 79,94 ± 11,3 ms --> QT-Zeit: Range 264-400 ms, Median 348 ms, Mittelwert 343,34 ± 35,9 ms -->QTc-Zeit (Normwert < 440 ms bei Jungen und < 460 ms bei Mädchen): Range 377-433 ms, Median 403 ms, Mittelwert 402,9 ± 11,1 ms. Bezüglich der Lagetypen fanden sich bei 42% ein Indifferenz-, bei 46% ein Steil- und bei 8% ein Linkstyp. Bei einem Patienten mit Tuberöser Sklerose lag ein Rechtstyp vor. Dieser wies einen vollständigen Rechtsschenkelblock auf, welcher bei Zustand nach reseziertem Rhabdomyom des rechten Ventrikels durch die operative Durchtrennung des Reizleitungssystems verursacht wurde. Den Ergebnissen dieser Untersuchung zufolge lassen sich bei Kindern unter Therapie mit Valproinsäure keine Veränderungen im EKG, insbesondere keine QT-Verlängerungen, als möglicher Risikofaktor für eine kardiale Arrhythmie nachweisen. Aus diesen Daten lässt sich schlussfolgern, dass dieses Antiepileptikum nicht das Risiko erhöht, an einem QT-bedingten SUDEP zu versterben. Trotz eines erhöhten Risikos unter einer antiepileptischen Polytherapie kann bisher nicht von einer erhöhten Inzidenz durch die Therapie mit einem bestimmten Antikonvulsivum ausgegangen werden. Weitere Untersuchungen sind notwendig, um die Rolle der einzelnen Pharmaka in diesem Zusammenhang besser einschätzen zu können. Bisher ist davon auszugehen, dass eine gute Anfallskontrolle das SUDEP-Risiko entscheidend verringert. Bis der Pathomechanismus des SUDEP detaillierter geklärt ist, gelten eine Optimierung der antiepileptischen Therapie und eine Vermeidung von bisher bekannten Risikofaktoren als sinnvollste präventive Maßnahmen. Abschließend ist festzuhalten, dass sich im Rahmen dieser Untersuchung bei Kindern unter antikonvulsiver Therapie mit Valproinsäure kein Hinweis auf QT-Verlängerungen als möglicher Risikofaktor für einen SUDEP fand.
Das Ziel der vorliegenden Arbeit war, zu analysieren, welche Einflussgrößen sich auf die Kryotransferergebnisse positiv oder negativ auswirken können, um somit Paaren, die über kryokonservierte Zellen verfügen, am effektivsten zu einem gemeinsamen Kind zu verhelfen.
Untersucht wurde, ob das Alter der Patientinnen, die Art der Befruchtung, die Anzahl der übertragenen Embryonen und die Zyklusvorbereitung einen Unterschied auf die Entwicklungs- und Implantationsfähigkeit menschlicher Eizellen sowie auf die Schwangerschaftsrate nach Kryokonservierung und Auftauen im Pronucleus-Stadium aufwiesen.
In der vorliegenden Studie wurden 126 Patientinnen mit ungewollter Kinderlosigkeit, die zwischen 2002 und 2004 am Universitätsklinikum Frankfurt am Main in Behandlung waren, aufgenommen. Das Durchschnittsalter der Patientinnen lag bei 33,3 Jahren. Von 226 durchgeführten Kryotransferzyklen resultierten die Pronukleus-Eizellen bei 34 Kryotransferzyklen aus einer In-vitro-Fertilisation (IVF) und bei 192 Zyklen aus einer intrazytoplasmatischen Spermieninjektion (ICSI).
Es wurde festgestellt, dass in der vorliegenden Studie die erzielte Erfolgsrate, gemessen an der relativ geringen Schwangerschaftsrate, deutlich niedriger lag als beim deutschen IVF-Register. Das Resultat muss jedoch auch unter dem Aspekt der schlechten Ergebnisse der IVF-/ICSI-Therapie in der untersuchten Gruppe betrachtet werden.
Die Ergebnisse der Kryotherapie sind dagegen mit den Zahlen anderer Reproduktionszentren vergleichbar, die derzeit eine Effektivität von durchschnittlich 19,12 % erreichen (DIR 2007) (23).
Bei der Untersuchung wurde jeweils nur der erste und zweite Kryotransferzyklus pro Patientin ausgewertet, damit die Voraussetzung zur Untersuchung der Einflüsse anamnestischer Faktoren gleich war.
Durch ICSI befruchtete Eizellen führten nach Kryokonservierung seltener zu einer Schwangerschaft (11,59%) als nach IVF (16,66%), beim Primärtransfer war das Ergebnis weniger verschieden (9,41% und 7,40%).
Die Vorbereitung des Kryotransferzylus war insofern relevant, als das der Transfer im spontanen Zyklus bezüglich der Schwangerschaftsrate am erfolgreichsten war (13,79%). Der Transfer in einem artifiziellen Zyklus, also nach Stimulation aus einer Kombination von HMG mit FSH, der alleinigen Verabreichung beider Medikamente oder nach dem Kaufmann-Schema, erbrachte dagegen nur eine geringe Schwangerschaftsrate von 6,45%.
Signifikante Unterschiede wiesen die im Punktionszyklus verwendeten Medikamente zur ovariellen Stimulation hinsichtlich der Degenerationsrate nach dem Auftauen der PN-Stadien auf, die nach HMG-Stimulation niedriger (19,35%) als nach FSH-Stimulation (30,82%) war, die Schwangerschaftsrate wies allerdings keine deutlichen Unterschiede auf (11,90% und 13,08%).
Das Alter der Patientinnen hatte wider Erwarten in der vorliegenden Untersuchung keinen eindeutigen Einfluss auf die Schwangerschaftsrate.
Die Resultate bestätigten, dass ein Transfer von maximal drei erlaubten Embryonen die besten Ergebnisse erzielte (19,6 %), hingegen bei einem Transfer von zwei Embryonen ein Ergebnis von nur 5,5 % vorlag. Dieses Ergebnis spricht, wie bereits bei anderen Forschungsergebnissen postuliert, für einen Transfer von drei Embryonen und sollte somit angestrebt werden.
Es lässt sich zusammenfassen, dass die Ergebnisse der Kryotransferbehandlungen in Bezug auf die untersuchten Parameter, wie spontan/hormonelle Kryotransferzyklen, IVF- oder ICSI- Behandlung und Alter, nur geringe Unterschiede aufwiesen.
Einen signifikanten Einfluss auf die Erfolgsrate hatten jedoch die Anzahl der transferierten Embryonen und die verschiedenen Stimulationsmedikamente auf die Degeneration der Oozyten.
Die vorliegende Arbeit hat gezeigt, dass die Kryokonservierung die Effizienz der reproduktionsmedizinischen Behandlung nachweislich erhöht. Darüber hinaus plädiert sie für ein Überdenken des deutschen Embryonenschutzgesetzes, um somit den Frauen eine hohe Anzahl von Behandlungszyklen zu ersparen.
Das Ziel der vorliegenden Arbeit war der Einbau, die Inbetriebnahme, die Abstimmung und der Test eines Strahlmatchingsystems in eine Zweistrahl-RFQ-Beschleunigerstruktur. Dieses Strahlmatchingsystem wurde entwickelt, um die Beschleunigereinheit des Frankfurter Funneling-Experimentes besser an die nachfolgende HF-Deflektoreinheit anzupassen und um zu zeigen, dass ein Strahlmatching innerhalb der RFQ-Beschleunigerstruktur möglich ist. Des Weiteren wurden die zum Versuch gehörigen Ionenquellen modifiziert, um eine bessere Anpassung der Strahlherstellung an die Beschleunigerstruktur zu erreichen. Die Spannungsverteilung in der Beschleunigerstruktur selbst wurde durch weitergehende Tuningmaßnahmen verbessert, um die Teilchenverluste weiter zu minimieren Mit dem Funnelingexperiment soll experimentell geprüft werden, ob eine Strahlstromerhöhung durch das Zusammenführen mehrerer Ionenstrahlen verschiedener Ionenquellen möglich ist. Solch ein System ist für einige Zukunftsprojekte (HIDIF, SNS-Ausbau, ESS, u.ä.), die große Strahlströme benötigen, die nicht aus nur einer Ionenquelle extrahiert werden können, erforderlich. Das in dieser Arbeit behandelte Strahlmatching ist für das Experiment notwendig, da zu große Teilchenverluste in der Funnelsektion entstanden und somit eine bessere Anpassung des Strahls an den HF-Deflektor erforderlich wurde. Es konnte gezeigt werden, dass die hier verwendete Art der Strahlfokussierung auch in eine komplizierte RFQ-Beschleunigerstruktur integrierbar ist, in der zwei Strahlkanäle auf der gleichen Stützen-Bodenplatten-Konstruktion aufgebaut sind. Die Verlängerung der Endelektroden und die Integration einer Strahlanpassung haben einen positiven Einfluss auf die Transsmission innerhalb des Beschleunigers und verbessern die Transmission durch den Deflektor. Es konnten Energiemessungen und zeitaufgelöste Faradaytassenmessungen der Teilchenbunche sowie zeitaufgelöst Makropulse mit der Faradaytasse gemessen werden. Floureszensschirmmessungen zeigten, dass die beiden Teilchenstrahlen auf eine neue gemeinsame Strahlachse gebogen wurden. Die Energiemessung zeigte, dass die Simulationen mit RFQSIM sehr genau die Endenergie der Teilchen berechnen konnte. Im Strahlkreuzungspunkt hinter dem Zweistrahl-RFQ-Beschleuniger konnten nahezu identische Teilchenbunche erzeugt werden. Diese Teilchenbunche wiesen zudem die in vorherigen Simulationen errechneten Charakteristika auf, in denen eine transversale und eine longitudinale Fokussierung gegenüber dem ungematchten Strahl simuliert wurden. Es konnte auch eine weitere Strahlradiusreduzierung gemessen werden, die auf eine exaktere Justierung der Elektroden zurückzuführen ist. Die Phasenfokussierung konnte verbessert werden, indem die Elektrodenspannung besser an die Strahlmatchingsektion angepasst wurde. Hierzu mussten auch die Einschussparameter der Strahlen in die Beschleuniger angepasst werden, damit die Transmission der Beschleuniger sich nicht verschlechterte. Insgesamt konnte mit den durchgeführten Experimenten erstmals demonstriert werden, dass zwei Strahlen in einem RFQ-Beschleuniger auf einen Punkt hinter dem Beschleuniger angepasst werden können und die Spannungsverteilung in solch einer Struktur durch Tuningmaßnahmen abstimmbar ist. Es konnte erstmals demonstriert werden das über 90% der Teilchen beider Strahlen, bei guten Strahleigenschaften, auf eine neue gemeinsame Strahlachse abgelenkt (gefunnelt) wurden.
In der Therapie des Diabetes mellitus Typ 2 ist neben Patientenschulung, Fewichtsreduktion und körperlicher Aktivität die Therapie mit oralen Antidiabetika von besonderer Bedeutung, um langfristig die Blutzuckereinstellung zu verbessern und kardiovaskuläre wie andere Folgeerkrankungen zu minimieren. Allerdings sinkt im Verlauf die Effizienz dieser Therapie, so dass die dauerhafte Gabe von Insulin notwendig wird. Dabei können jedoch auch schwerwiegende Nebenwirkungen, wie z.B. Hypoglykämien und eine wiederrum mit einem erhöhten Risiko an kardiovaskulären Erkrankungen verbundene ausgeprägte Gewichtszunahme auftreten. Demgegenüber führte der GLP-1 Rezeptor-Agonist Exenatide in jüngsten Studien zu einer Verbesserung der Blutzuckereinstellung und Reduktion des Körpergewichts und kann somit als eine neuartige Therapiealternative zum bisher verwendeten Insulin angesehen werden. In der hier vorliegenden prospektiven Studie wurde Exenatide mit Insulin bei Typ 2-Diabetes Patienten mit einer unzureichenden Stoffwechseleinstellung unter Metformin in Bezug auf deren Blutzuckereinstellung und das Hypoglykämie-Risiko verglichen. In dieser 26-wöchigen, multizentrischen, kontrollierten, randomisierten und zweiarmigen Phase IIIb-Studie wurden insgesamt 494 Patienten aus ganz Deutschland untersucht. Die Patienten mit einer unzureichenden Metformin- (Primärkollektiv) oder Kombinationstherapie (exploratives Kollektiv: Metformin plus Sulfonylharnstoff) wurden im Verhältnis 3:1 auf zweimal täglich Exenatide oder zweimal täglich Mischinsulin Aspart 30/70 randomisiert. In einem hierarchischen Modell wurde zunächst die Nichtunterlegenheit von Exenatide gegenüber dem Mischinsulin im Hinblick auf das primäre Endziel der Blutzuckereinstellung (in Form des HbA1c-Wertes) untersucht und anschließend die Überlegenheit von Exenatide in Hinblick auf ein geringeres Hypoglykämie-Risiko. Sekundäre Studienziele waren die Häufigkeit von schweren und von nächtlichen Hypoglykämien, die Veränderung des Körpergewichts sowie des Body Mass Index. Ferner wurden 7-Punkt-Blutzuckertagesprofile und Patientenfragebögen in die Auswertung einbezogen. Bei der insgesamt in acht Visiten unterteilten Studie erfolgte nach zwei Wochen die Randomisierung auf die beiden Therapie-Arme. Während die Dosierung des Mischinsulins im Verlauf der gesamten Studiendauer vom Arzt individuell titriert werden konnte, wurde die Dosis von Exenatide nach vier Wochen von 2 x 5 μg/Tag auf 2 x 10 μg/Tag verdoppelt und bis zum Ende der Studie nicht verändert. Die hier vorliegende Arbeit ist die erste Studie, die das Hypoglykämie-Risiko unter Exenatide und Mischinsulin als primären Endpunkt prospektiv und konfirmatorisch vergleichend untersucht. Im Primärkollektiv konnte die Nicht-Unterlegenheit von Exenatide zum Mischinsulin in Bezug auf den HbA1c-Wert festgestellt werden. Bei der Vermeidung von Hypoglykämien war Exenatide dem Mischinsulin statistisch signifikant überlegen. Zusätzlich konnte unter der Exenatide-Behandlung ein signifikanter Gewichtsverlust festgestellt werden, wohingegen die Patienten im Mischinsulin-Arm signifikant an Gewicht zunahmen. Die gleichzeitige Erreichung dieser Therapieziele (HbA1c<7,0%, keine Gewichtszunahme und keine Hypoglykämien) wurde als Triple-Endpoint definiert und im Exenatide-Arm signifikant häufiger als unter der Mischinsulin-Therapie beobachtet. In den 7-Punkt-Blutzuckertagesprofilen konnte neben einer allgemeinen Blutzuckersenkung in beiden Therapiearmen eine zusätzliche postprandiale Senkung zu den Zeiten der morgendlichen und abendlichen Exenatide-Injektion beobachtet werden. Demgegenüber waren die präprandialen Blutzuckerwerte im Mischinsulin-Arm niedriger, so dass insgesamt eine vergleichbare Verbesserung des Flächenintegrals in den Blutzuckertageskurven erzielt wurde, was die vergleichbare HbA1c-Verbesserung erklärt. Entsprechend zum Gewicht nahmen auch BMI und Hüftumfang der Patienten unter Exenatide ab und unter Insulin zu. Das Gesamtcholesterin und die Triglyceride sanken unter beiden Therapien leicht ab, HDL-Cholesterin stieg leicht an, wohingegen nur unter Exenatide das LDL-Cholesterin abnahm. Ebenfalls sanken nur im Exenatide-Arm der systolische und diastolische Blutdruck. Die häufigsten unerwünschten Ereignisse unter Exenatide waren Übelkeit, Erbrechen, Verdauungsstörungen, Durchfall, Kopfschmerzen und Erkältungen, wobei Durchfall, Kopfschmerzen und Erkältungen auch unter Insulin zu beobachten waren. Bei der in den Patientenfragebögen DTSQ und SF-12 dokumentierten subjektiven Empfindung der Nebenwirkungen zeigten sich allerdings eine Kompensation der deutlicheren Nebenwirkungen von Exenatide durch dessen Vorteile, u.a. im Hinblick auf seine einfachere Dosierung und der als angenehm empfundenen Gewichtsreduktion. Insgesamt war in beiden Therapie-Armen eine ausreichende Patientenzufriedenheit festzustellen. Unter denjenigen Patienten, bei denen Antikörper gegen Exenatide festgestellt wurden, nahm die Prävalenz einer Antikörperbildung gegen Exenatide bis zum Ende der Studie ab. Die Ergebnisse der hier vorgelegten Studie lassen die Schlussforderung zu, dass der GLP-1 Agonist Exenatide eine therapeutische Alternative zum Mischinsulin in der Behandlung des Diabetes Mellitus Typ 2 darstellt. Da eine Restfunktion der pankreatischen ß-Zellen eine Voraussetzung für den Therapieerfolg darstellt, sollte Exenatide möglichst früh bei nachlassender Wirkung des oralen Antidiabetikums Metformin eingesetzt werden. Hier wirkt Exenatide durch eine Verbesserung der Blutzuckereinstellung, die zudem mit einem verminderten Hypoglykämie-Risiko und einer Gewichtsreduktion verbunden ist. Die Kombination dieser drei bedeutenden Effekte hat den klinisch relevanten Vorteil, das Risiko an kardiovaskulären Spätfolgen und somit die Morbidität und Mortalität von Typ 2-Diabetikern langfristig zu senken. Dieses sollte in einer prospektiven Langzeitstudie untermauert werden.
Somsanit® (Natrium-γ-Hydroxybutyrat) wird schon seit vielen Jahren zur Langzeitsedierung von Intensivpatienten eingesetzt. Durch das Vorliegen als Natriumsalz, kann bei Langzeitanwendung oft schon nach wenigen Tagen eine Hyperatriämie auftreten, die zum Absetzen des Präparates führen kann. Um diesen Nachteil von Somsanit® zu überwinden, wurde von Dr. F. Köhler Chemie das Natrium-freie GHB-Analogon Butamidol (γ-Hydroxybuttersäure-Ethanolamid) entwickelt. In klinischen Studien zeigte Butamidol eine adäquate Sedierung von Intensivpatienten, besaß aber selbst in hohen Dosierungen keine narkotische Wirkung. GHB, welches auch physiologisch in Gehirn vorkommt, führt konzentrationsabhängig von einer tiefen Sedation bis hin zur Narkose. Aus der Literatur ist bekannt, dass beide GHB-Effekte durch einen Agonismus an GABAB-Rezeptoren ausgelöst werden. Die GHB-Konzentrationen die dafür benötigt werden, können aber nur durch exogen zugeführtes GHB erreicht werden. In physiologischen Konzentrationen bindet GHB an den GHB-Rezeptor, dessen Funktion bisher noch nicht eindeutig aufgeklärt werden konnte. Das Ziel dieser Arbeit war, die Affinität von Butamidol und GHB an den beiden Systemen GABAB- und GHB-Rezeptor zu untersuchen und mögliche Unterschiede aufzuklären. Im Radiorezeptor-Assay zeigte Butamidol eine geringere Affinität zum GABAB-Rezeptor als GHB (Butamidol: Ki = 399.5 mM; GHB: Ki = 10.6 mM) und eine agonistische Wirkung am GABAB-Rezeptor wurde, über die Hemmung spannungsabhängiger Ca2+-Kanäle in Synaptosomen, nur für GHB nachgewiesen. In der nachfolgenden Untersuchung der GABAB-Rezeptor Signaltransduktionskaskade wurden, durch die akute GHB-Gabe, die Phospho-ERK-Level im Hippocampus von Mäusen vermindert. Der gleiche Effekt wurde für die akute Behandlung mit dem GABAB-Agonisten Baclofen erhalten, aber nicht für Butamidol. In Experimenten zur Modulation des GABAergen Systems, durch die subchronische Behandlung von Mäusen mit GHB oder Butamidol, wurde nur nach GHB-Behandlung eine Steigerung des synaptosomalen GABA-Uptakes detektiert. Somit konnte eine Beeinflussung des GABAergen Systems durch Butamidol an mehreren möglichen Angriffspunkten ausgeschlossen werden. Als zweites in Frage kommendes Target für Butamidol wurde das GHB-System untersucht. In Radiorezeptor-Bindungs-Versuchen wurden zur Verdrängung des antagonistischen Radioliganden [3H]NCS-382 höhere Butamidol Konzentrationen benötigt, als zur Verdrängung des Agonisten [3H]GHB (Ki: 1296 vs. 452 μM). Ein vergleichbarer „Shift“ zu höheren Konzentrationen zeigte auch der „kalte“ Agonist GHB und nicht der „kalte“ Antagonist NCS-382 (GHB: Ki 3.10 vs. 1.41 μM; NCS-382: Ki 0.431 vs. 0.447 μM). In einer weiteren subchronischen Behandlungsstudie von Ratten mit Butamidol und GHB wurde für GHB eine Erniedrigung der Gesamt-Rezeptor-Population und für Butamidol eine Erhöhung des Anteils der Agonist-Bindungsstellen an der Gesamt-Rezeptor-Population erhalten. Dieses Ergebnis kann für GHB als Hinweis auf ein agonistisches und für Butamidol als partiell agonistisches Bindungsverhalten am GHB-Rezeptor interpretiert werden. Da im GHB-Radio-Rezeptor-Assay relativ hohe Butamidol Konzentrationen zur Verdrängung der Radioliganden eingesetzt werden mussten, wurden daran anschließend Untersuchungen zur klinischen Relevanz, der für die GHB-Rezeptor Bindung notwendigen Butamidol Konzentrationen, durchgeführt. In Behandlungsstudien von Mäusen, mit anschließender Bestimmung der Butamidol Plasma- und Hirnspiegel, wurde die Hirn/Plasma Ratio ermittelt. Aus der erhaltenen Hirn/Plasma Ratio und den aus klinischen Studien bekannten beim Menschen wirksamen Plasma-Spiegeln, lassen sich für Butamidol Hirnkonzentrationen von 200-350 μM extrapolieren, die im Konzentrationsbereich für die Bindung von Butamidol am GHB-Rezeptor liegen.
Das West-Nil-Virus (WNV) gehört zur Gruppe des Japan-Enzephalitis-Serokomplexes der Flaviviren, welches in Afrika, Asien und Mittleren Osten sowie in Süd- und Osteuropa seine Verbreitung findet. Das unerwartete Auftreten des Erregers in den USA (New York, 1999) bedingte eine große Zahl an transfusions- sowie transplantations-assoziierten WNV-Infektionen. Derzeit liegen keine Erkenntnisse über die Verbreitung des WNV in der deutschen Blutspenderpopulation vor. Aus diesem Grund war das Ziel dieser Arbeit die Bestimmung der Prävalenz und Inzidenz des Erregers zur Einschätzung der Gefahr von transfusions-assoziierten WNV-Infektionen. Zunächst wurde zur Bestimmung der Prävalenz des Erregers die Sensitivität und Spezifität verschiedener ELISAs (Panbio, Focus und Euroimmun) für die WNV-Antikörpertestung bestimmt. Es zeigte sich, dass WNV starke Kreuzreaktionen mit dem für unsere Breiten relevanten Frühsommer-Meningoenzephalitis-Virus (FSME) aufweist. Aus diesem Grund wurde zusätzlich ein FSME-ELISA sowie als Bestätigungstest ein Neutralisationstest verwendet und ein Testalgorithmus entwickelt. Für die Bestimmung der Inzidenz wurde auf den Grundlagen von Hadfield eine WNV-Reverse Transkriptase-PCR (RT-PCR) entwickelt und etabliert. Die 95% Nachweisgrenze wurde nach der Entwicklung der RT-PCR auf 54Kop./ml WNV-RNA bezogen auf eine Einzelprobe in einem Minipool bestehend aus acht Blutspenden bestimmt. Das Konfidenzintervall beträgt (CI): 42; 6 - 79; 92 Kopien/ml. Zudem wurde die Sensitivität der automatischen Extraktion mittels des auf magnetischen Festphasen beruhenden Separationsmoduls I mit der WNV-RT-PCR ermittelt. Die 95% Nachweisgrenze lag bei 225Kop./ml WNVRNA((CI): 168; 5 - 314; 3 ) bezogen auf eine Einzelprobe in einem Minipool bestehend aus acht Blutspenden. Aufgrund der etwas schlechteren Sensitivität wurde für die Bestimmung der Inzidenz die manuelle Extraktion durchgeführt. Zudem wurde das kommerzielle WNV Procleix Assay der Firma Chiron verwendet, um alle bisher in Europa aufgetretenen WNV-Stämme zu erfassen. Im Sommer 2004 wurde zunächst die Prävalenz des WNV bestimmt. Hierfür wurden 14:000 aus Hessen stammende Blutspenden von gesunden Spendern untersucht. Initial zeigte sich eine hohe Rate an anti-WNV reaktiven (5; 9 %) Blutspenden, wobei nur 0; 03% der Blutspenden im Neutralisationstest als Anti-WNV positiv bestätigt worden. 0; 15% der bestätigten anti-WNV positiven Blutspenden waren hierbei am ehesten mit Reisen in WNV-Epidemiegebiete assoziiert. Die Bestimmung der Inzidenz erfolgt im darauf folgendem Jahr durch die Untersuchung von 10:976 Blutspenden zusammengefasst in 1:372 Minipools mittels WNV RT-PCR. Von 1:372 Minipools wurden 1:247 Minipools mit dem Procleix WNV Assay untersucht. Beide Untersuchungsmethoden konnten keine WNV-positive Blutspende nachweisen. Insgesamt scheint das WNV -wenn überhaupt- nur in verschwindend geringem Maße in der deutschen Blutspenderpopulation zu exisitieren. Somit besteht derzeit keine Gefahr für transfusions-assoziierte WNV-Infektionen. Dennoch wurden importierte WNV-Infektionen aus Endemiegebieten in Deutschland beschrieben. Durch weitere Veränderungen der klimatischen Gegebenheiten wäre die Einschleppung des WNV nach Deutschland in Zukunft durchaus denkbar. Hierfür steht nun eine für das Spenderscreening taugliche Real-time PCR zür Verfügung, so dass jederzeit ein Blutspenderscreening auf WNV eingeführt werden kann.
Die Ausbreitung von HIV stellt ein kontinuierlich wachsendes Problem dar [132]. Durch Einführung der hochaktiven antiretroviralen Therapie (HAART) konnte die Morbidität und Mortalität der HIV-Infektion deutlich gesenkt werden, jedoch limitieren Resistenzbildungen des Virus und Toxizität der Medikamente den Erfolg. Eine mögliche Therapiealternative bietet die HIV-Gentherapie. Hierbei werden Zellen eines Patienten genetisch modifiziert, so dass sie ein antivirales Genprodukt exprimieren. In der Arbeitsgruppe von Laer (Georg-Speyer-Haus, Frankfurt) wurde der retrovirale Vektor M87o entwickelt, der das antivirale, membranverankerte Peptid maC46 kodiert. Dieses hemmt als Fusionsinhibitor effizient den Viruseintritt von HIV. Als Zielzellen einer HIV-Gentherapie können neben TLymphozyten, den eigentlichen Zielzellen von HIV, auch deren Vorläufer, die hämatopoetischen Stammzellen, verwendet werden. Durch Generierung der gesamten Hämatopoese sollte dies zur Expression des antiviralen Transgens in allen Blutzelllinien führen. Besonders wichtig hierbei ist, dass die Funktion der hämatopoetischen Stammzellen durch die genetische Modifikation möglichst nicht gestört wird. Ziel der vorliegenden Arbeit war es daher, toxische Effekte von M87o auf die Repopulierungsfähigkeit hämatopoetischer Stammzellen auszuschließen. Neben den Toxizitätsanalysen sollte auch die Langzeitexpression des retroviralen Vektors nach Transplantation genetisch modifizierter T- und Stammzellen untersucht werden. Eine stabile Expression des Transgens ist vor allem in T-Lymphozyten als Hauptzielzellen von HIV ausschlaggebend für den Erfolg der Gentherapie. Daher war ein weiteres Ziel dieser Arbeit, die Transgenexpression in vivo besonders in T-Lymphozyten im Verlauf zu untersuchen. Hierzu wurden in einem syngenen Mausmodell hämatopoetische Stammzellen mit dem retroviralen Vektor M87o transduziert und in bestrahlte Rag1-defiziente Mäuse transplantiert. Damit mögliche toxische Effekte von M87o auf die Hämatopoese nicht durch den Anteil untransduzierter Zellen im Transplantat maskiert werden, wurde in einer Versuchgruppe der Anteil transduzierter Stammzellen durch MACS-Sortierung auf über 95% angehoben. bAls Kontrollgruppen wurden untransduzierte, aber gleichermaßen kultivierte Stammzellen sowie mit dem Kontrollvektor M87c transduzierte Stammzellen transplantiert. Im folgenden Beobachtungszeitraum von 18-20 Wochen wurde regelmäßig das periphere Blut der Empfängertiere analysiert sowie nach Tötung der Tiere die einzelnen Zellpopulationen der hämatopoetischen Organe Blut, Lymphknoten und Milz charakterisiert. Hierbei konnte keine Toxizität durch M87o nachgewiesen werden. Zwar wurde für M87o-angereicherte Stammzelltransplantate eine verminderte bzw. verzögerte Lymphozytenrepopulierung beobachtet, dies war jedoch wahrscheinlich auf eine eingeschränkte „Fitness“ der Stammzellen durch den Sortierungsprozess und eine geringere Zellzahl im Transplantat zurückzuführen. M87o-transduzierte Stammzellen waren schließlich in der Lage, die komplette Lymphopoese zu generieren. Im Blut, Lymphknoten und Milz der Rezipienten konnten NK-, T- und B-Zellen nachgewiesen werden. Die lymphatische Differenzierung wurde also durch M87o nicht beeinträchtigt. Eine Aussage über die Toxizität von M87o auf die Myelopoese konnte leider nicht getroffen werden. Nach subletaler Bestrahlung der Empfängertiere und damit nur teilweisen Ablation des endogenen Knochenmarks wurden die meisten Zellen der myeloischen Linie durch die Wirts-Stammzellen generiert. Es müssen somit hinsichtlich der Unbedenklichkeit von M87o noch weitere präklinische Untersuchungen erfolgen, bei denen durch letale Bestrahlung der Empfängertiere lediglich die durch Spenderzellen differenzierte Myelopoese analysiert werden kann. Bei den Untersuchungen zur Transgenexpression nach Transplantation genetisch modifizierter Stammzellen konnte eine Langzeitexpression des maC46-Peptids auf allen lymphatischen Zelllinien (T-, B- und NK-Zellen) nachgewiesen werden. Dies zeigt also, dass eine stabile und effiziente Integration des Transgens und somit eine langfristige Expression in vivo möglich ist. Im Verlauf konnten jedoch bei nahezu allen Tieren fallende Anteile M87o-exprimierender Lymphozyten nachgewiesen werden. Dieser beobachtete Expressionsverlust war variabel hinsichtlich des zeitlichen Auftretens sowie zelltypabhängig. Die höchsten Anteile M87o-exprimierender Zellen zeigten sich innerhalb der B-Lymphozyten. Im Rahmen der M87o-Expressionsanalyse nach Transplantation genetisch modifizierter T-Lymphozyten wurden T-Lymphozyten mit unterschiedlicher Transduktionseffizienz in Rag1-defiziente Mäuse transplantiert. Unterschiede in der Langzeitexpression in Abhängigkeit von der ins Genom integrierten Kopienzahl des Vektors konnten hierbei nicht eindeutig gezeigt werden. Bei einigen Tieren konnte eine relativ langfristige in vivo Expression des maC46-Peptids nachgewiesen werden, bei anderen hingegen nachlassende Transgenexpressionen. Insgesamt war die Aussagekraft hier jedoch durch eine nach Transplantation auftretende schwere Kolitis bei den Versuchstieren und somit limitierte Beobachtungszeit stark eingeschränkt.
Das Chronic Care Model (CCM) stellt eine Zusammenfassung evidenzbasierter Erkenntnisse dar, um die Versorgung chronisch Erkrankter zu optimieren. Diverse Messinstrumente sind in den letzten Jahren zur Erfassung des Implementierungserfolges des CCM aus Sicht der Leistungserbringer und der Patienten entwickelt worden. Einen Ansatz zur Erfassung, inwiefern die im CCM beinhalteten Dimensionen angewendet werden, stellt das Patient Assessment of Chronic Illness Care (PACIC- 5A) dar. Dieses Instrument wurde im englischsprachigen Raum entwickelt und primär im amerikanischen Gesundheitssystem eingesetzt. Es besteht in der ursprünglichen Fassung aus 20 Items und erfragt in fünf Subskalen CCM-konkordante Aspekte: Patientenaktivierung, Leistungserbringerstruktur / Entscheidungshilfen, Zielsetzung, Problemlösung / Beratung, Follow-up / Koordination. Die erweiterte Version aus 26 Items erlaubt zusätzlich zur Beurteilung der Erfüllung des CCM die Analyse der Umsetzung im Sinne des 5A-Modells, eines behaviouristischen Ansatzes zur Verhaltensänderung. Ziel dieser Arbeit war es, den Fragebogen in die deutsche Sprache ohne Verlust des semantischen Inhaltes zu übersetzen und an einer primärmedizinischen Population im deutschen Gesundheitssystem zu evaluieren. Eine weitere Zielsetzung war, den Implementierungsgrad des CCM-Konstruktes im spezifischen Fall der Major Depression zu erkunden. Hierzu wurde das übersetzte PACIC-5A im Rahmen der im Institut für Allgemeinmedizin der Universitätsklinik Frankfurt durchgeführten ProMPT-Studie zur Betreuung von Patienten mit Major Depression an insgesamt 509 Patienten erprobt. Hiervon wurden 436 Patienten in die Studie eingeschlossen. Hierauf erfolgte die Überprüfung der psychometrischen Eigenschaften. Die statistischen Messergebnisse, hinsichtlich innerer Konsistenz (Cronbach´s α) und Trennschärfe (korrigierte Item-Skala-Korrelation), ergaben gute und mit der aktuellen Literatur übereinstimmende Resultate. Die konvergente Validität des PACIC-5A wurde anhand des primärmedizinisch validen Fragebogens EUROPEP (European Project on Patient Evaluation of General Practice Care) geprüft. Das Ergebnis zeigte hohe Korrelationen vor allem in den inhaltlich vergleichbaren Skalen, wie z.B. Skala „Patientenaktivierung“ aus dem PACIC-5A und Skala „Information und Unterstützung“ des EUROPEP. Die diskriminierenden Fähigkeiten des Fragebogens wurden durch die geringen korrelativen Eigenschaften mit Skalen des EUROPEP, welche andere Dimensionen erörtern, nachgewiesen. Zusätzlich ermöglichte der Vergleich der Mittelwerte der einzelnen Skalen des PACIC-5A zwischen dem Kontroll- und Interventionsarm eine zusätzliche Beurteilung der diskriminierenden Potenz. Das PACIC-5A ist bis jetzt vorrangig an Patienten mit chronischen Erkrankungen aus dem organischen Formenkreis (z.B. Osteoarthritis, Diabetes Mellitus) angewendet und validiert worden. Die kongruente Anwendung des PACIC-5A auf Erkrankte mit Major Depression ist ein limitierender Aspekt. Hier besteht weiterer Forschungsbedarf. Für eine optimale Patientenversorgung in der Primärmedizin ist es essentiell, primärmedizinisch valide Instrumente den Hausärzten zur Verfügung zu stellen.