Refine
Year of publication
- 2006 (240) (remove)
Document Type
- Doctoral Thesis (240) (remove)
Language
- German (240) (remove)
Has Fulltext
- yes (240)
Is part of the Bibliography
- no (240)
Keywords
- Cytochromoxidase (4)
- Elektronentransfer (3)
- Apoptosis (2)
- Electron transfer (2)
- Elektronenmikroskopie (2)
- Hashimoto-Thyreoiditis (2)
- Kinderheilkunde (2)
- MRI (2)
- Membranproteine (2)
- NMR-Spektroskopie (2)
Institute
- Medizin (110)
- Biochemie und Chemie (34)
- Biowissenschaften (28)
- Pharmazie (23)
- Physik (9)
- Gesellschaftswissenschaften (6)
- Neuere Philologien (5)
- Informatik (4)
- Erziehungswissenschaften (3)
- Geographie (3)
Ziel dieser Arbeit war es, die Effizienz der Ambulanten Endokrinologie an der Universität Frankfurt mit Hilfe statistischer Methoden zu untersuchen. Die Basis hierfür bildeten die Karteikarten von 449 Kassenpatienten, die im Jahr 2000 die Ambulanz aufsuchten!. Dank dieser großen Zahl von Fällen konnten die meisten Aussagen, die im Rahmen dieser Arbeit gemacht wurden, statistisch signifikant belegt werden. Dies geschah mit Hilfe sogenannter statistischer Tests, mit denen es möglich ist, eine Hypothese gegen eine Alternativaussage auf ihre Gültigkeit zu testen. Zentrale Kernaussagen der Arbeit sind die folgenden: o Der Aufwand, der beispielsweise bei den Laboruntersuchungen investiert wird, ist in der Ambulanten Endokrinologie zwar hoch; er ist aber immer noch geringer als der Aufwand, der von niedergelassenen Ärzten getrieben wird, bis die richtige Diagnose feststeht. Der Grund hierfür liegt vor allem in der Anzahl der Ärzte, die vor der Ambulanz aufgesucht werden. o Der Aufwand bei anderen Untersuchungen, wie zum Beispiel Röntgenaufnahmen, Sonographie- oder Szintigraphieuntersuchungen ist in der endokrinologischen Ambulanz deutlich geringer als außerhalb. o Mitglieder der Ersatzkassen sind als Patienten in der Ambulanten Endokrinologie eindeutig überrepräsentiert, Mitglieder der AOK eindeutig unterrepräsentiert. Trotzdem bilden die AOK-Mitglieder die größte Gruppe unter den Kassenpatienten in der Ambulanz. o Die durchschnittliche Dauer bis zur Diagnose beträgt in der Ambulanten Endokrinologie 5 Tage. Ein Arztbrief wird im Mittel jedoch erst 76 Tage nach der Erstaufnahme verfaßt. Diese relativ lange Zeit ist aber immer noch kürzer als die Zeitspanne vom ersten Aufsuchen eines Arztes bis zur richtigen, als Arztbrief festgehaltenen Diagnose. Diese beträgt nämlich 110 Tage. o Obwohl man vermuten könnte, daß die Diagnosezuverlässigkeit von Hausärzten, Fachärzten und der Uniklinik unterschiedlich ist, konnte ein solcher Unterschied nicht in statistisch signifikanter Weise nachgewiesen werden. Der Anteil der Fälle, bei denen die Diagnose geändert werden mußte, betrug bei Hausärzten etwa 15%, bei Fachärzten 18% und bei anderen Abteilungen der Frankfurter Universitätsklinik 9%. Die letzte Zahl ist zwar deutlich kleiner als die anderen beiden; da aber nur 56 Karteikarten von Patienten vorlagen, die aus der Uniklinik heraus überwiesen wurden, ist hier keine sichere Aussage möglich. o Bei der Weiterversorgung der Patienten nach dem Aufsuchen der Ambulanten Endokrinologie ist in mindestens 85% der Fälle der Hausarzt involviert. In 43% aller Fälle übernimmt der Hausarzt die Weiterversorgung sogar alleine; die Ambulanz wird nicht mehr hinzugezogen. Selbst bei den verbleibenden 15% der Patienten ist davon auszugehen, daß sie sich mittelfristig wieder in die Behandlung des überweisenden Arztes begeben - auch wenn sie sich beispielsweise einer Operation unterziehen müssen. Nur 4 % der Patienten befinden sich seit mehr als 5 Jahren in der Obhut der Ambulanz. Die Befürchtung einiger Hausärzte, sie könnten die Patienten im Falle einer Überweisung an die Ambulante Endokrinologie verlieren, konnte mit all diesen Fakten eindeutig widerlegt werden. Zusammenfassend kann man sagen, daß die Effizienz der Ambulanten Endokrinologie bereits sehr hoch ist: o Eine eindeutige Diagnose ist gegeben. o Die Patienten der Ambulanten Endokrinologie erhalten eine lege artis Behandlung, insbesondere eine individuelle medikamentöse Einstellung. o Für die Krankenkassen bedeutet dies langfristig gesehen eine kostengünstige Versorgung. Neben den statistischen Ergebnissen gestattete es die Arbeit auch, Empfehlungen für eine weitere Effizienzsteigerung der Ambulanz zu machen. In diesem Zusammenhang sind die folgenden Vorschläge zu nennen: oDer Arztbrief sollte früher erstellt werden; unter anderem, um die Kommunikation mit dem Hausarzt, auf dessen Überweisung der Patient angewiesen ist, zu verbessern. o Bei den Karteikarten sollten einige zusätzliche Felder definiert werden, die in standardisierter Weise vom behandelnden Arzt auszufüllen sind. Dies gestattet es, in Zukunft ähnliche Statistiken wie die in dieser Arbeit präsentierten leichter und noch präziser auszuarbeiten. o Generell sollte die Flächendeckung der Endokrinologischen Ambulanzen verbessert werden. Auch die Öffnungszeiten könnten den Bedürfnissen berufstätiger Patienten folgend ausgeweitet werden. All dies ist zwar mit einem hohen finanziellen und personellen Aufwand verbunden; volkswirtschaftlich gesehen dürfte aber durch die präzisere Diagnostik und die bessere medikamentöse Einstellung ein gewisser Kompensationseffekt eintreten. Durch die höhere Patientenanzahl wäre eine bessere Kostendeckung gegeben. Beispielsweise wäre die Auslastung der apparativen Einrichtungen bei einer Ganztagssprechstunde deutlich höher.
Die Aufrechterhaltung des physiologischen Gleichgewichtes in einem mehrzelligen Organismus erfordert Mechanismen, welche die Balance zwischen der Toleranz gegenüber Selbst-Antigenen und der Auslösung einer Immunantwort ermöglichen. Diese Mechanismen werden unter dem Begriff periphere Toleranz zusammengefasst. Regulatorische T-Zellen (Treg) sind eine T-Zell-Subpopulation, die für periphere Toleranz und Homöostase des Immunsystems von großer Bedeutung sind (Powrie et al., 2003). Durch ihre suppressiven Eigenschaften sind Treg in der Lage, die Proliferation von konventionellen T-Zellen (Tcon) sowohl in vivo als auch in vitro zu hemmen und so eine Immunantwort von autoreaktiven TZellen einzudämmen. Für die Hemmung von Tcon in vitro wird der direkte Zellkontakt zwischen Treg und Tcon benötigt (Thornton und Shevach, 1998). Der molekulare Mechanismus humaner Treg ist bislang jedoch nur unzureichend geklärt. In der hier vorgestellten Forschungsarbeit wurden TZR-abhängige Signaltransduktionskaskaden analysiert, um den molekularen Mechanismus humaner Treg sowohl auf Ebene der Treg als auch auf Ebene der gehemmten Tcon zu entschlüsseln. Hierzu wurden im Rahmen der hier beschriebenen Experimente in unserer Abteilung die ex vivo Isolation und die in vitro Expansion humaner Treg etabliert. Mit Hilfe sensitiver Analysemethoden der TZR-abhängigen Signaltransduktionskaskaden konnte für humane Treg gezeigt werden, dass sie nach Stimulation über ihren TZR einen geringeren Ca2+-Einstrom im Vergleich zu dem in Tcon aufweisen. Ein weiteres Ergebnis der hier vorliegenden Arbeit ist, dass Treg im Zuge ihrer Aktivierung eine geringere Phosphorylierung einiger, für die TZR-induzierte-Signalkaskade relevante Signalmoleküle wie ERK1/2 und p38MAPK aufweisen. Für gehemmte Tcon aus der Kokultur mit humanen Treg wurde in dieser Forschungsarbeit ein zu Kontroll-Tcon vergleichbarer Ca2+-Einstrom detektiert. Die Ergebnisse dieser Arbeit zeigen außerdem, dass Tcon aus der Kokultur mit Treg eine verringerte Phosphorylierung der Signalmoleküle ERK1/2 und p38MAPK aufweisen. Die hier veröffentlichten Ergebnisse ermöglichen einen ersten Einblick in die molekulare Signaltransduktion von humanen Treg und zum ersten Mal auch in die von gehemmten Tcon. Dieses Verständnis stellt eine Grundlage für weitere Experimente dar und ermöglicht einen Schritt in Richtung der vollständigen Entschlüsselung des molekularen Mechanismus humaner Treg, die eine Voraussetzung für den therapeutischen Einsatz dieser Zellen ist. Eine weitere Zielsetzung dieser Arbeit war es, den Einfluss apoptotischer Zellen auf die Immunantwort zu untersuchen. Für die Gewebehomöostase mehrzelliger Organismen ist die effiziente und immunologisch unauffällige Eliminierung apoptotischer Zellen unabdingbar (Fadok et al., 1998; Lauber et al., 2004; Skoberne et al., 2005; Steinman und Nussenzweig, 2002). Im Rahmen der hier erläuterten Experimente wurden in vitro Studien durchgeführt, die einen inhibierenden Effekt apoptotischer Zellen auf die Reifung humaner dendritischer Zellen zeigen. Es konnte bestätigt werden, dass dendritische Zellen nach Phagozytose apoptotischer Zellen weniger proinflammatorische Moleküle sekretieren und eine geringere Oberflächenexpression kostimulatorischer Moleküle aufweisen. Nach Etablierung zweier in vitro Modellsysteme wurde in weiteren Experimenten gezeigt, dass T-Zellen durch dendritische Zellen, die zuvor apoptotische Zellen aufgenommen haben, eine geringere Stimulation erfahren. Diese Ergebnisse deuten auf einen anti-stimulatorischen Effekt dendritischer Zellen, die zuvor apoptotische Zellen aufgenommen haben hin, und sie bilden die Basis für eine anschließende in vitro Analyse der molekularen Auswirkungen auf dendritische Zellen und T-Zellen.
Studienziel: Das Ziel der Studie war die Klärung der Frage, ob eine systemische Bisphosphonattherapie mit Ibandronat Einfluss auf die Osteointegration von HA-beschichteten und unbeschichteten Titanimplantaten hat. Es sollte die Ibandronatdosis mit dem bestmöglichen Effekt herausgefunden werden. Weiterhin wurde der periprothetische Knochenanteil beurteilt. Methode: Es wurde eine tierexperimentelle Studie mit Ratten durchgeführt. Die Einteilung erfolgte in drei Therapiegruppen, die mit Ibandronat in den Dosierungen 1, 5 und 25 μg/kg Körpergewicht über 27 Tage behandelt wurden, sowie eine Kontrollgruppe, die mit NaCl 0,9% gespritzt wurde. In einer Operation erhielten die Versuchstiere in je einen Femur ein unbeschichtetes- und ein mit Hydroxylapatit-beschichtetes Titanimplantat. Nach 28 Tagen wurden die Femura entnommen und histomorphometrisch ausgewertet. Bestimmt wurde die osteointegrierte Prothesenoberfläche und der relative periprothetische Knochenanteil. Ergebnisse: Eine signifikante Steigerung der osteointegrierten Prothesenoberfläche konnte unter einer Dosierung von 5 und 25 μg/kg KG Ibandronat im Vergleich zur Kontrollgruppe für beide Implantatformen nachgewiesen werden. Ein Anstieg des relativen periprothetischen Knochenanteils zeigte sich in allen Therapiegruppen im Vergleich zur Kontrollgruppe, eine Signifikanz war aber nur bei der höchsten Dosierung (25 μg/kg KG) nachweisbar. Schlussfolgerung: Eine signifikante Verbesserung der Osteointegration unbeschichteter und mit Hydroxylapatit beschichteter Titanimplantate ist in dem durchgeführten Tierexperiment bei einer Therapie mit dem Bisphosphonat Ibandronat in einer Dosierung von 5 und 25 μg/kg KG zu erreichen. Begleitend kam es hierbei auch zu einer Anhebung des periprothetischen Knochenanteils, signifikant war der Effekt nur bei der Dosierung von 25 μg/kg KG. Unsere Ergebnisse legen nahe, dass Bisphosphonate die Sekundärstabilität und Haltbarkeit von zementfreien Implantaten verbessern können. Zukünftige Studien müssen die klinische Relevanz der Ergebnisse überprüfen.
Ribozyme und siRNAs sind in der Lage, durch sequenzspezifische Spaltung der viralen RNA, die HIV-Replikation in vitro zu inhibieren. Es konnten bis jetzt allerdings nur wenige Antisense-basierte Therapeutika entwickelt werden, die eine ausreichend effiziente antivirale Wirkung in klinischen Studien zeigen. In dieser Arbeit wurden verschiedene Untersuchungen zur Wirksamkeit von therapeutischen RNA-Effektor-Molekülen durchgeführt. Die Effizienz von exogen in Zellen transfizierter therapeutischer siRNAs wird von vielen Faktoren beeinflusst. Neben der Bindung der Effektor-RNA an ihre Ziel-RNA und der Stabilität der Effektor-RNA sind weitere wichtige Faktoren die Lokalisation innerhalb der Zelle sowie die Effizienz der Transfektion. Zur Beurteilung der Knockdown-Effizienz einer exogen zugeführten Effektor-RNA bedarf es somit einer Meßmethode, die diese unterschiedlichen Parameter berücksichtigt. Wesentlich ist dabei insbesondere die Transfektionseffizienz, in den meisten in vitro Studien finden jedoch Unterschiede in der Transfektionseffizienz wenig Beachtung. Da die Wirksamkeit der Effektor-RNA in einer Zelle nur dann hinreichend beurteilt werden kann, wenn bekannt ist wie viel RNA in die jeweilige Zelle transfiziert wurde, wurde ein Assay-System etabliert, mit welchem die Konzentrations-Wirkungs-Beziehung der Effektor-Moleküle ermittelt werden kann. Mit Hilfe dieses Assay-Systems wurde in dieser Arbeit der Einfluss verschiedener Nukleotidanaloga auf die Wirksamkeit von siRNAOligonukleotiden untersucht. Bei dem einen Nukleotidanaloga handelt es sich um das 2,4,6-Trifluorbenzene, eine universelle Base, welche den RNA-Duplex partiell destabilisiert. Es konnte bereits gezeigt werden, dass für die Effektivität von siRNAs ein thermodynamisch destabilisiertes 5’-Ende des antisense-Stranges von Vorteil ist. Eine siRNA mit zwei 2,4,6-Trifluorbenzenen am 5’-Ende des sense-Stranges zeigte eine erhöhte Effektivität gegenüber den Kontrollen. Das zweite Nukleotidanaloga war das 4,6-Difluorbenzimidazol. Dabei handelt es sich ebenfalls um eine universelle Base, die nicht zwischen den einzelnen Basen diskriminiert. Die Verwendung dieser Base soll die Toleranz einer verwendeten siRNA gegenüber Punktmutationen erhöhen. Im Einsatz gegen HIV könnte diese Strategie die Bildung von Escape-Mutanten verhindern. Diese Base wurde an den Positionen 7 und 10 im antisense-Strang eingebaut. Als Kontrollen wurden an diesen Positionen mismatch-Basenpaarungen eingesetzt. An diesen Positionen werden mismatch-Basenpaarungen allerdings gut toleriert, so dass durch den Einsatz des 4,6-Difluorbenzimidazol keine Effektivitätssteigerung erreicht werden konnte. Durch gezielte Punktmutagenese konnten Nukleotidpositionen innerhalb des siRNA Moleküls identifiziert werden, bei denen mismatch-Basenpaarungen zu einem hohen Aktivitätsverlust führen und an denen der Einbau des 4,6-Difluorbenzimidazol sinnvoll erscheint. Ein zweiter Teil dieser Arbeit beschäftigt sich mit anti-HIV Ribozymen. In unserer Arbeitsgruppe wurden mehrere neue anti-HIV Ribozyme entwickelt und charakterisiert. Das Hammerhead Ribozym gegen das 13. GUC Triplett im Pol Gen erwies sich als äußerst effizienter Inhibitor der HIV-Replikation in vitro. In dieser Arbeit konnte die antivirale Wirksamkeit durch Bestimmung der kinetischen Parameter bestätigt werden. Der Wert für Kcat von 3,9 min-1 entspricht der Spaltungsrate von Hammerhead Ribozymen von <5 min-1. Der ermittelte Wert ist verglichen mit anderen anti-HIV Ribozymen sehr hoch. Es handelt sich um ein Ribozym mit einer sehr hohen molaren katalytischen Aktivität. Die antivirale Wirkung dieses anti-HIV Ribozyms sollte durch die Kolokalisation an seine Target-RNA zusätzlich verbessert werden. Ribozyme binden sequenzspezifisch an ihre Target RNA, das Zusammentreffen von Ribozym und Ziel-RNA ist jedoch ein zufälliges Ereignis. Es konnte bereits gezeigt werden, dass die Kolokalisation von Ribozymen zu einer Effektivitätssteigerung führt. Es war geplant das Ribozym über RNA-Aptamere an die HIV-1 Proteine Tat und Rev zu kolokalisieren, da beide Proteine spezifisch über ihre RNA Bindedomäne an die HIV mRNAStrukturen TAR (Tat Activated Region) bzw. RRE (Rev Responsive Element) binden. In dieser Arbeit konnten Expressionssysteme und die Reinigung für beide viralen Proteine etabliert werden, allerdings ließ sich das Affinitätstag nicht durch Proteaseverdau entfernen. Aus diesem Grund wurde die Selektion der Aptamere mit Peptiden durchgeführt. In dieser Arbeit konnten jedoch keine RNAs identifiziert werden, die eine Affinität zu den Peptiden aufwiesen. RNA Interferenz wird zunehmend als das effektivste Verfahren zum spezifischen Knockdown einer mRNA angesehen. Zum Vergleich von siRNA mit anti-HIV Ribozymen wurden überlappende Zielsequenzen im HIV-1 Pol Gen für beide Effektor-Moleküle identifiziert und ihre antivirale Wirkung verglichen. Beide Ribozyme und shRNAs wurden retroviral in T-Zellen exprimiert, um die antivirale Wirkung der beiden Effektor-Moleküle vergleichen zu können. Die antivirale Aktivität der siRNAs wurde nach HIV-1 Exposition mit der unseres Referenzribozyms HHPol 13 verglichen. Die siRNA gegen eine Sequenz im Bereich des 7. GUC Tripletts im HIV-1 Pol Gen war in der Lage die HIV Replikation effektiv zu hemmen. In gleicher Weise konnte dies auch das Referenzribozym gegen das 13. GUC Triplett im Pol Gen. Die siRNA, die gegen die gleiche Sequenz wie das effektive Ribozym gerichtet war, zeigte hingegen keinerlei antivirale Aktivität. Dieses Ergebnis zeigt, dass ein Ribozym ebenso effektiv wie eine siRNA die HIV Replikation hemmen kann. Die siRNA, die gegen die gleiche Sequenz wie das effektive Ribozym gerichtet ist, hatte keine antivirale Aktivität. Neben der Zugänglichkeit der Ziel-RNA beeinflussen scheinbar noch andere Faktoren die Effizienz von siRNA-Molekülen. In diesen Experimenten wurden erstmals systematisch siRNAs und Ribozyme gegen identische Zielsequenzen miteinander vergleichen. Der antivirale Effekt der siRNA Pol7 wurde näher untersucht. Um die Effizienz der siRNA leichter zu bestimmen und vergleichen zu können, wurden die weiteren Versuche mit synthetischen Oligonukleotiden und der Zelllinie Hela-P4 CCR5 durchgeführt. Dabei zeigte die siRNA eine sehr gute Inhibition der viralen Replikation.
Tourismus in Pakistan : Darstellung, Stellenwert und Perspektiven aus entwicklungspolitischer Sicht
(2006)
Musik, Musikalität und Musikpraxis übten in allen Epochen der europäischen Kulturgeschichte eine große Faszination auf Künstler, Philisophen und Naturwissenschaftler aus. So setzten sich schon die Kirchenväter des Mittelalters oder Naturforscher wie Johannes Kepler mit musiktheoretischen Fragen auseinander. Seit dem 19. Jahrhundert aber wurde mit dem Aufkommen des Virtuosentums und mit dem Erscheinen von Künstlern wie Franz Liszt und Nocoló Paganini das technische Können des Instrumentalisten immer mehr in den Vordergrund gestellt. Die Konzerthäuser wurden zu einer musikalischen Hochleistungsarena. Ähnlich wie im Leistungssport gilt auch für den Musiker das Prinzip schneller, höher, weiter. Besonders in den letzten zwanzig Jahren sind die Anforderungen, die von Musikhochschulen und Konservatorien bei Aufnahmeprüfungen an die Bewerber gestellt werden, signifikant gestiegen. Die Studenten der Hochschulen und Frühbegabtenklassen werden immer jünger und immer besser. Das bedeutet gleichzeitig, daß schon kleinste Verletzungen und Irritationen – besonders im neurologischen Bereich – eine professionelle Musikerlaufbahn unmöglich machen. Nur geringe Koordinationsschwierigkeiten der Hände, ein Kribbeln oder eine geringe Verlangsammung der Bewegungsabläufe, können die Musikausübung auf so hohem Niveau entscheidend beeinträchtigen. Aus diesem Grund soll sich die vorliegende Arbeit speziell dem Gebiet der neurologischneurochirurgischen Erkrankungen widmen, weil diese das „Steuerungszentrum des Musikers“ – das Gehirn – direkt betreffen. Seit die 90-er Jahre des 20. Jahrhundert zur „Dekade des Gehirns“ erklärt wurden, rückte auch das Gehirn des Musikers in den Aufmerksamkeitsfocus der Neurowissenschaftler. Im Vordergund stand hierbei die Grundlagenforschung, weniger klinische Fragestellungen, die einen betroffenen Musiker direkt betreffen. Daher soll mit der vorliegen Arbeit ein Versuch unternommen werden, die Auswirkungen von neurologischen Erkrankungen, SchädelHirnVerletzungen oder Hirnoperationen auf die Musikausübung aufzuzeigen. Dies soll anhand historischer Fallstudien großer Komponisten vom Barock bis zum 20. Jahrhundert sowie zeitgenössischer MusikerPatienten geschehen. Auf dem Gebiet der Neurochirurgie wurden in den lezten Jahren bedeutende Fortschritte erzielt und neue, schonende Operationstechniken entwickelt. So können Eingriffe am Zentralnervensystem heute immer präziser ausgeführt werden. Die Wahrscheinlichkeit, eine bleibende Behinderung davonzutragen, ist drastisch gesunken, jedoch kann ein solcher Eingriff trotz aller modernen Techniken auch heute noch für eine professionelle Musikerlaufbahn das Aus bedeuten. Problematisch ist, daß es weder aus dem medizinischen noch aus dem musikpädagigischen/musikwissenschaftlichen Bereich Empfehlungen oder Erfahrungen gibt, wie eine neurologische Rehabilitation für den Musiker durchgeführt werden könnte oder wie der Musiker mit einer solchen Erkrankung umgehen sollte. Auch für die technische Arbeit und einen möglichen Wiederaufbau erlernter Fertigkeiten am Instrument gibt es keine Erfahrungswerte. Wie bei jeder Rehabilitation sollte das Ziel sein, seine alten Fähigkeiten und Leitsungsniveaus wiederzuerlangen. Für den Musiker ist es jedoch sehr schwer, diesbezüglich Hilfe und Beratung zu bekommen. In ganz Deutschland gibt es an nur zwei Musikhochschulen Spezialsprechstunden für Musikermedizin, viel zu wenig, wenn man bedenkt, daß es in Deutschland etwa 30 000bis 40 000 Berufsmusiker gibt. Noch schwerer ist es für den Musiker, einen Arzt zu finden, der auf die neurologischen Grundlagen des Instrumentalspiels spezialisiert ist. Bei Verletzung und geplanten Operationen des Gehirns ist daher beim Musiker nicht nur eine neurochirurgische Behandlung notwendig. Schon bei der Planung der Operation muß bedacht werden, welche anatomischen Strukturen des Gehirns für die Musikausübung- und Wahrnehmung von Bedeutung sind und daher so weit wie möglich geschont werden müssen. Die Planung, Durchführung und Nachsorge einer solchen Behandlung macht daher die koordinierte Zusammenarbeit zwischen Patient, Arzt und Musikpädagogen notwendig, um dem betroffenen Musiker eine erfolgreiche Rehabilitation zu ermöglichen. Ziel der Arbeit ist es, anhand von Fallbeispielen Zusammenhänge von neurologischen Funktionen und Musikausübung darzustellen und die Chancen einer erfolgreichen neurologisch- neurochirurgischen Behandlung und Rehabilitation beim Musiker aufzudecken.
Für die geplanten Untersuchungen wurde eine eigene Methode für die Kultur primärer humaner Bronchialepithelzellen etabliert. Die Bronchialepithelzellen wurden aus Lungenteilresektaten durch eine cytologische Bürstung gewonnen. Die verwendeten Kulturschalen wurden mit Kollagen beschichtet. Als serumfreie Kulturmedien wurden ein Expansionsmedium und ein Differenzierungsmedium verwendet. Dabei enthielt das Expansionsmedium proliferationsfördernde Supplemente, was zu einer deutlich gesteigerten Zellausbeute gegenüber der Verwendung handelsüblicher Medien führte. Im Differenzierungsmedium wurden Supplemente verwendet, die für die Differenzierung und Ziliogenese bronchialer Epithelzellen erforderlich sind. Die Kultur erfolgte an einer Luft-Medium-Grenzfläche, die für Bronchialepithelzellen eine physiologische Umgebung darstellt. Die Charakterisierung der Kulturen zeigte keine Verunreinigungen mit Fibroblasten, Muskelzellen oder Zellen mesenchymalen Ursprungs. Das charakteristische kopfsteinplasterartige Erscheinungsbild, sowie der immunhistochemische Nachweis von Cytokeratin 18 belegten den bronchoepithelialen Charakter der Kulturen. In der vorliegenden Arbeit wurde mit der RT-kompetitive Multiplex-PCR (RCMP) eine Technik entwickelt, mit deren Hilfe die Expression von Genen in niedriger Kopienzahl oder aber in Proben mit geringer RNA-Menge nachgewiesen werden kann. Geringe Ausgangsmengen an RNA wiesen vor allem die Primärkulturen von humanem Bronchialepithel, als auch frische Gewebebürstungen des Bronchial- und Nasenepithels auf. Die RCMP basiert auf einer kompetitiven PCR und kombiniert eine exogen interne und endogen interne Standardisierung. Damit wurde die mRNA-Expression von bis zu vier Genen in einem Ansatz analysiert. Die RCMP löst dabei mehrere Probleme herkömmlicher PCR-Verfahren: 1. mRNAs mit hoher oder niedriger Kopienzahl können in einem Ansatz koamplifiziert werden. 2. Die semiquantitative Quantifizierung ist unabhängig von den Syntheseeffizienzen von Target und Referenzgenen. 3. Die RCMP kontrolliert Schwankungen der initialen RNA-Menge. 4. Die Unabhängigkeit der RCMP von der Kenntnis der initialen RNA Menge erlaubt auch die Bestimmung von Probenmaterial in dem nur geringe mRNA-Mengen vorhanden sind. Damit eignet sich die RCMP besonders für Expressionsstudien Materialien wie Bioptaten, Nasal- oder Bronchialbürstungen, sowie den Kulturen primärer Bronchialepithelzellen. Mit Hilfe der RCMP wurden erstmals die mRNA der Osmolyttransporter BGT-1, SMIT und TAUT in Bronchialepithelzellen nachgewiesen. Nach Behandlung mit hyperosmotischen Medien wurde die mRNA-Expression dieser Transporter stark induziert. Bronchialepithelzellen perzeptieren osmotische Belastungen und versuchen, ihnen entgegenzuwirken. Hyperosmotische Belastungen können in Bronchialepithelien zu einer Inflammation ohne zugrunde liegende Infektion führen. Dabei wird zeit- und dosisabhängig sowohl die Sekretion als auch die Expression von IL-8 induziert. An dieser Induktion ist die p38 MAP-Kinase beteiligt. Reaktive Sauerstoffspezies (ROS) sind sowohl an der Induktion der IL-8 Sekretion und Expression beteiligt, als auch an der Aktivierung der p38 MAPKinase. Weiterhin zeigte sich, dass die Induktion der Sekretion von IL-6 und IL-8 abhängig von osmotisch bedingten Änderungen des Zellvolumens ist. Auch hier wird bereits die p38 MAP-Kinase durch das Zellvolumen reguliert. Die Ergebnisse legen ein mögliches Modell für die initialen Vorgänge in der CF-Lunge nahe. Die Veränderungen des Ionenhaushalts bei der cystischen Fibrose, sowie die eingeschränkte Zellvolumenkontrolle bei CF-Zelllinien, weisen darauf hin, dass ein defektes CFTR-Protein zu einer von neutrophilen Granulozyten dominierten Inflammation führen kann, ohne das die Lunge bereits mit Erregern besiedelt wurde.
Bei Patienten mit koronarer Herzkrankheit (KHK) wird angenommen, dass es aufgrund der Apoptose von Endothelzellen zu einer Störung des endothelialen Zusammenhaltes kommt, was ein Fortschreiten der Atherosklerose zur Folge hat. Unter normalen Bedingungen bewirkt eine Gefäßwandverletzung eine Mobilisierung von im Knochenmark befindlichen endothelialen Progenitorzellen, was möglicherweise zur Reendothelisation der verletzten Gefäßwand beiträgt. Personen mit kardiovaskulären Risikofaktoren und einer manifesten KHK jedoch haben eine niedrigere Anzahl zirkulierender EPCs. Aus diesem Grund untersuchten wir bei Patienten mit stabiler KHK und mit ACS das Gleichgewicht zwischen zirkulierenden EPC und zirkulierenden apoptotischen maturen endothelialen Zellen (CAEC), und beobachteten, ob Statine ECs bei Patienten mit KHK vor der Apoptose schützen.
Die Bestimmung der EPCs erfolgte mit Hilfe der Durchflusszytometrie (FACS) durch die Inkubation mit CD133 und KOR. Es zeigte sich, dass Patienten mit einem AMI im Vergleich zur Kontrollgruppe die niedrigsten Werte an zirkulierenden EPCs aufwiesen (ca. 3,5fach niedriger), gefolgt von Patienten mit instabiler und stabiler KHK. Die Anzahl zirkulierender ECs hingegen (CD45-negativ, CD146-positiv und vWF-positiv) war bei Patienten mit AMI im Vergleich zur Kontrollgruppe um das 5fache erhöht (P < 0,01).
Um die Anzahl an CAEC zu bestimmen, ermittelten wir mittels einer 4-Kanal-Durchflusszytometrie die Annexin V-positiven Zellen aus CD45-negativen, CD146- positiven und vWF-positiven zirkulierenden Zellen aus peripheren Blutproben von Patienten mit KHK.
Wir konnten zeigen, dass diese Zellen bei Patienten mit AMI im Vergleich zu einem gesunden alters- und geschlechtskompatiblen Probandenkollektiv um das 10fache erhöht waren. (P < 0,05)
Um ein Maß für die veränderte Balance verschiedener Endothelzellen zu erhalten, ermittelten wir einen "Schädigungsindex" (Quotient aus CAEC und EPC), der bei Patienten mit stabiler KHK bereits ein relatives Überwiegen der Apoptose bei unzureichend erniedrigten EPCs anzeigte und bei Patienten mit AMI die ungünstigste Konstellation mit einem um das 30fache erhöhten Index ergab.
Da kardiovaskuläre Risikofaktoren bekanntermaßen die Atheroskleroseentstehung begünstigen, untersuchten wir, ob sie auch Einfluss auf die Anzahl zirkulierender CD133- positiver EPCs haben. In einer multivariaten Analyse blieben die Krankheitsaktivität der KHK und eine positive Familienanamnese als unabhängige signifikante Prädiktoren einer reduzierten Anzahl zirkulierender CD133-positiver EPCs bestehen.
Um die Herkunft der ECs zu bestimmen, wurden selektiv Blutproben aus der Aortenwurzel und der V.cordis mag na untersucht. Patienten mit ACS wiesen einen transkoronaren Anstieg der CAEC um 35% in der V.cordis magna verglichen mit der Aorta auf. Ebenso war bei Patienten mit ACS der "Schädigungsindex" in der V.cordis magna signifikant höher als in der Aorta.
Hydroxymethyl- Glutaryl- Goenzym-A-Reduktasenhibitoren (Statine) senken die kardiovaskuläre Ereignisrate sowohl in der Primär- als auch in der Sekundärprävention kardiovaskulärer Erkrankungen.
Eine retrospektive Studie mit n = 34 Patienten mit KHK zeigte, dass die Anzahl an CAEC bei Patienten ohne Statin signifikant niedriger war als bei den Patienten, die ein Statin bekommen hatten (mittlere Dosis 20mg per os). Zudem zeigte sich bei der Berechnung des Schädigungsindex, dass die Statintherapie eine Abnahme des Quotienten um das 15- fache bewirkte. Um dieses Ergebnis zu bestätigen maßen wir in einer prospektiven Studie die CAEC-Level bei n = 9 Patienten mit KHK vor und nach einer 4- wöchigen Behandlung mit Atorvastatin. Die Behandlung mit Atorvastatin führte zu einer signifikanten Abnahme sowohl der CAEC- Level als auch der prozentualen Apoptoserate.
Zusammenfassend zeigt diese Arbeit, dass bei Patienten mit akuter KHK das Gleichgewicht zwischen EPG und apoptotischen maturen Endothelzellen gestört ist und dass eine Statintherapie das Gleichgewicht zwischen Endothelzellverletzung und vaskulären Reparaturmechanismen in Richtung einer Erhaltung des endothelialen Zusammenhaltes beeinflusst.
Einleitung: Die Arbeit stellt den in der Medientheorie bezüglich neuer Kommunikationsmedien und virtuellen Arbeitsmöglichkeiten im Internet vorherrschenden Mythen die empirischen Befunde der Untersuchung einer medial unterstützten, interdisziplinär und räumlich verteilt praktizierten Forschungskooperation gegenüber. Damit betritt sie Neuland, da der Einsatz neuer Kommunikationstechnologien bisher vor allem im Rahmen organisationssoziologischer Studien im Bereich der Wirtschaft, im Bereich des E-Learnings oder für nicht-wissenschaftliche Nutzergruppen im öffentlich zugänglichen Internet analysiert worden sind. Die Studie offenbart dabei die Wirkmächtigkeit lokal gegebener Bezüge und Relevanzen, welche die immer wieder betonten medial gegebenen Freiheiten eines raumund zeitunabhängigen, global angelegten Agierens weitgehend demontieren. Virtualisierte Kooperationsszenarien und Globalität verkörpern dabei den Mythos der medialen Freiheit, das Lokale dagegen holt diese ideal gedachten Visionen auf den Boden der empirischen Tatsachen mit seinen im soziokulturellen Feld „Wissenschaft“ eingebundenen Akteuren zurück. Dieses Ergebnis birgt wissenschaftspolitischen Sprengstoff, denn extensive Mediennutzung und Interdisziplinarität gelten als zentrales Gebot der Zeit und werden als unumgänglich angesehen – können aber im System Wissenschaft mitunter nicht durchsetzbar sein. Die Studie zeigt, dass die in der Medientheorie und Populärmedien verkündeten Möglichkeiten des universellen Einsatzes von neuen Kommunikations- und Medientechnologien für die sozial- und kulturwissenschaftlichen Forschung relativiert werden müssen: Medien werden schwerpunktmäßig als Fortsetzung traditioneller Arbeitsmethoden, dann jedoch durchaus auch sehr effektiv eingesetzt. Ausgangspunkt der empirischen Erhebung ist die medienphilosophisch gestützte Hypothese, dass sich im Feld der Wissenschaft die in digitalen Medien angelegten Möglichkeiten optimal entfalten können und so gegebene Potenziale in greifbare Nähe rücken, etwa eine neue Dimension von Erkenntnismöglichkeiten durch kollektive Wissensgenese. Die Arbeit befasst sich daher mit Einsatz und Bedeutung computervermittelter Kommunikation in einem interdisziplinär und raumübergreifend etablierten Forschungsverbund, wobei das Hauptaugenmerk auf den praktizierten Modi der medial unterstützten Kooperation liegt. Der Zugang zum Feld erfolgte daher mittels teilnehmender Begleitforschung über einen Zeitraum von zwei Jahren. Die methodische Vorgehensweise ist an einer ethnographischen Forschungsauffassung orientiert und setzt auf eine gegenstandsorientierte Verwendung qualitativer Methoden. Es zeigt sich, dass die erwarteten und aktiv angestrebten positiven Effekte keine selbstständig eintretende Folge der Verfügbarkeit ermöglichender technischer Szenarien sind, die sich etwa in Form vernetzter Computer installieren lassen. Vielmehr bildet die Logik des Feldes Wissenschaft mit seinen darin wirksamen institutionellen Strukturen den maßgeblichen Orientierungsrahmen, an dem die beobachtbare Medienverwendung ausgerichtet wird. So kommt bspw. zum Tragen, dass im Wissenschaftlichen Habitus der Stellenwert einer medialen Präsenz oder technischen Expertise unterbestimmt sind und diese keinen elementaren Bestandteil der üblicherweise praktizierten Forschungstätigkeit bilden. Anstatt einer medial bereicherten Erkenntnisproduktion dominiert so ein pragmatischer Medieneinsatz konzentriert auf das unmittelbar Notwendige. Speziell zugeschnittene digitale Möglichkeitsräume für eine wissenschaftliche Auseinandersetzung (Foren, Wiki, Bild- und Videodatenbank) mit dem gemeinsamen Gegenstand erhalten im untersuchten Feld so den Charakter eines randständigen Schauplatzes und etablieren sich nicht als maßgeblicher Austragungsort der gemeinsamen Diskussion. Unmittelbar aufgabenbezogen einsetzbare Ressourcen dagegen, die bereits in Alltagsroutinen integriert sind wie die E-Mail, haben jedoch ihren festen Stellenwert, etwa in technisch-administrativen Fragen oder im Hinblick auf das laufende Informationsmanagement. In den praktizierten Nutzungsweisen ist somit eine deutliche Dominanz des Schriftlichen im Umgang mit den eingesetzten Informationstechnologien vorherrschend: Für den zeitversetzten medienvermittelten Austausch müssen zur Diskussion stehende Inhalte zunächst in die Textform überführt werden. Phänomene, Themenaspekte oder Materialien, die sich (noch) gegen die Schriftsprache sperren, sind folglich charakterisiert durch „Schweigen“. Schweigen tritt im körperlosen virtuellen Raum und in schriftbasierten Medien jedoch nicht in Erscheinung. Ungeschriebenes ist daher im virtuellen Raum nicht existent und entzieht sich der gemeinsamen, raum- und zeitunabhängigen Bearbeitung. Neue Medien sind als sozial überformte Technologie folglich nicht ausgehend von darüber bereitgestellten Funktionen definierbar. Trotz der Topoi einer digitalen Revolution oder einer Informations- und Wissensgesellschaft, über die das Internet fester Bestandteil der gegenwärtigen materiellen und ideellen Infrastruktur wurde, erhalten die technologischen Artefakte ihre Bedeutung erst in der individuell ausgestalteten Verwendung durch die mit ihr befassten Akteure, wie die Studie über ihren exemplarischen Zugang für den Bereich der sozial- und kulturwissenschaftlichen Forschung zeigt.
Die Überzeugung, dass der Computer nicht als Werkzeug, sondern als Medium zu denken sei, hat in den zurückliegenden Jahren die Debatte zu einer Medientheorie des Computers wesentlich geprägt. Damit war insbesondere eine bestimmte Auffassung des Technischen verbunden. Die Effekte der technischen Medien lassen sich, so der Gedanke, nicht über die Aktivierung anthropologischer Schemata begreifen, vielmehr müssen die Medien in ihrer Technizität ernst genommen werden. Dies heißt aber nichts anderes, als dass der Technik ein Eigenwert zuzugestehen sei, der sich gerade nicht vom Menschen her konturieren lässt. Hierüber diskreditiere sich dann letztlich eine Rede von den Medien als werkzeughaften Extensionen des Menschen. Demgegenüber soll in dieser Arbeit der Vorschlag unterbreitet werden, den Computer eben doch wieder vom Werkzeug her zu denken. Damit soll jedoch keinesfalls über den erreichten Stand medientheoretischer Positionen hinweggesehen werden. Mit dem Medienbegriff umzugehen bedeutet nicht zuletzt, den epistemischen Status mitzureflektieren, den die Medien inne haben. Sie geben den Rahmen vor, in dem sich die Subjekte äußern können. Die Medien strukturieren diese Äußerungen bereits vorab bzw. ermöglichen überhaupt erst bestimmte Äußerungsformen. Sich hierüber Rechenschaft abzulegen bedeutet aber nicht notwendig, die Metapher einer werkzeughaften Nutzung des hoch technischen neuen Mediums als trügerisch verwerfen zu müssen. Gerade diese Nutzungsweise unterscheidet den Computer vom vorherrschenden Medienparadigma des 20. Jahrhunderts, von Film und Fernsehen und dem daraus abzuleitenden Status des Rezipienten als Rezipienten. Die vorliegende Arbeit betreibt also Werbung für einen produktiven Gebrauch des neuen Mediums, wobei es jedoch nicht darum geht, den Computer als eine Art Befreiung von den "Zwängen" der anderen technischen Medien zu positionieren. Sofern Medien überhaupt -- im strengen Sinne – Zwänge ausüben, so wäre doch nicht einzusehen, warum dies beim Computer anders sein sollte. Dennoch: Dass es so etwas wie eine "Creative Commons" gibt, dass es immer selbstverständlicher wird, wenn Nutzer ihre kreativen Produkte nicht nur mit anderen Nutzern teilen, sondern sie es darüber hinaus ermöglichen, dass auf Basis ihrer Produkte weitergearbeitet werden kann, nährt die Vermutung eines sich ändernden Verhältnisses zwischen den Nutzern und den Medien. Zentrales Ziel dieser Arbeit ist daher zunächst, die sich in der Medienwissenschaft bereits etablierte Perspektive auf den Computer als eines Textmediums zu kritisieren, da hierüber allzu leichtfertig eine bestimmte Nutzungsweise des Computers verabsolutiert werden kann: Einzig der programmierende Zugriff gilt als emanzipativ. Daran anschließend möchte ich nach einer kurzen Diskussion des Medienbegriffes das in der Softwareentwicklung lange Zeit bestimmende Gestaltungskonzept der Werkzeugnutzung für eine neuerliche Verwendung in der Medienwissenschaft vorschlagen. Vorteil ist, dass hiermit auch Nutzerpraxen adäquat einbezogen werden können, die sich auf den "Oberflächen" der Software abspielen. Betrachtet man Medien nicht als bloße Übertragungskanäle und versucht man, die produktive Seite von Medientechnologien in den Blick zu nehmen, dann weist die "Botschaft" des neuen Mediums in die Richtung eines Wechsels vom Rezipienten zum Produzenten. In dieser Perspektive erscheinen die Nutzer nicht mehr nur als Anhängsel der Technik. Sie sind nicht von ihr aus zu bestimmen, ebenso wenig wie die Medientechnik rein vom Menschen her zu bestimmen wäre. Um die These einer werkzeughaften Verwendbarkeit des Computers auszuführen, konzentriert sich die vorliegende Arbeit auf bestimmte Texte, die genauer diskutiert und in die Argumentation integriert werden. Dies erscheint mir fruchtbarer als der Versuch, das gesamte Spektrum der neueren Diskussion um den Computer als Medium aufgreifen und synthetisieren zu wollen. Die Gliederung verläuft dementsprechend weitgehend entlang dieser (theoretischen) Referenzen.