Refine
Year of publication
- 2006 (240) (remove)
Document Type
- Doctoral Thesis (240) (remove)
Language
- German (240) (remove)
Has Fulltext
- yes (240)
Is part of the Bibliography
- no (240) (remove)
Keywords
- Cytochromoxidase (4)
- Elektronentransfer (3)
- Apoptosis (2)
- Electron transfer (2)
- Elektronenmikroskopie (2)
- Hashimoto-Thyreoiditis (2)
- Kinderheilkunde (2)
- MRI (2)
- Membranproteine (2)
- NMR-Spektroskopie (2)
Institute
- Medizin (110)
- Biochemie und Chemie (34)
- Biowissenschaften (28)
- Pharmazie (23)
- Physik (9)
- Gesellschaftswissenschaften (6)
- Neuere Philologien (5)
- Informatik (4)
- Erziehungswissenschaften (3)
- Geographie (3)
Ziel dieser Arbeit war es, die Effizienz der Ambulanten Endokrinologie an der Universität Frankfurt mit Hilfe statistischer Methoden zu untersuchen. Die Basis hierfür bildeten die Karteikarten von 449 Kassenpatienten, die im Jahr 2000 die Ambulanz aufsuchten!. Dank dieser großen Zahl von Fällen konnten die meisten Aussagen, die im Rahmen dieser Arbeit gemacht wurden, statistisch signifikant belegt werden. Dies geschah mit Hilfe sogenannter statistischer Tests, mit denen es möglich ist, eine Hypothese gegen eine Alternativaussage auf ihre Gültigkeit zu testen. Zentrale Kernaussagen der Arbeit sind die folgenden: o Der Aufwand, der beispielsweise bei den Laboruntersuchungen investiert wird, ist in der Ambulanten Endokrinologie zwar hoch; er ist aber immer noch geringer als der Aufwand, der von niedergelassenen Ärzten getrieben wird, bis die richtige Diagnose feststeht. Der Grund hierfür liegt vor allem in der Anzahl der Ärzte, die vor der Ambulanz aufgesucht werden. o Der Aufwand bei anderen Untersuchungen, wie zum Beispiel Röntgenaufnahmen, Sonographie- oder Szintigraphieuntersuchungen ist in der endokrinologischen Ambulanz deutlich geringer als außerhalb. o Mitglieder der Ersatzkassen sind als Patienten in der Ambulanten Endokrinologie eindeutig überrepräsentiert, Mitglieder der AOK eindeutig unterrepräsentiert. Trotzdem bilden die AOK-Mitglieder die größte Gruppe unter den Kassenpatienten in der Ambulanz. o Die durchschnittliche Dauer bis zur Diagnose beträgt in der Ambulanten Endokrinologie 5 Tage. Ein Arztbrief wird im Mittel jedoch erst 76 Tage nach der Erstaufnahme verfaßt. Diese relativ lange Zeit ist aber immer noch kürzer als die Zeitspanne vom ersten Aufsuchen eines Arztes bis zur richtigen, als Arztbrief festgehaltenen Diagnose. Diese beträgt nämlich 110 Tage. o Obwohl man vermuten könnte, daß die Diagnosezuverlässigkeit von Hausärzten, Fachärzten und der Uniklinik unterschiedlich ist, konnte ein solcher Unterschied nicht in statistisch signifikanter Weise nachgewiesen werden. Der Anteil der Fälle, bei denen die Diagnose geändert werden mußte, betrug bei Hausärzten etwa 15%, bei Fachärzten 18% und bei anderen Abteilungen der Frankfurter Universitätsklinik 9%. Die letzte Zahl ist zwar deutlich kleiner als die anderen beiden; da aber nur 56 Karteikarten von Patienten vorlagen, die aus der Uniklinik heraus überwiesen wurden, ist hier keine sichere Aussage möglich. o Bei der Weiterversorgung der Patienten nach dem Aufsuchen der Ambulanten Endokrinologie ist in mindestens 85% der Fälle der Hausarzt involviert. In 43% aller Fälle übernimmt der Hausarzt die Weiterversorgung sogar alleine; die Ambulanz wird nicht mehr hinzugezogen. Selbst bei den verbleibenden 15% der Patienten ist davon auszugehen, daß sie sich mittelfristig wieder in die Behandlung des überweisenden Arztes begeben - auch wenn sie sich beispielsweise einer Operation unterziehen müssen. Nur 4 % der Patienten befinden sich seit mehr als 5 Jahren in der Obhut der Ambulanz. Die Befürchtung einiger Hausärzte, sie könnten die Patienten im Falle einer Überweisung an die Ambulante Endokrinologie verlieren, konnte mit all diesen Fakten eindeutig widerlegt werden. Zusammenfassend kann man sagen, daß die Effizienz der Ambulanten Endokrinologie bereits sehr hoch ist: o Eine eindeutige Diagnose ist gegeben. o Die Patienten der Ambulanten Endokrinologie erhalten eine lege artis Behandlung, insbesondere eine individuelle medikamentöse Einstellung. o Für die Krankenkassen bedeutet dies langfristig gesehen eine kostengünstige Versorgung. Neben den statistischen Ergebnissen gestattete es die Arbeit auch, Empfehlungen für eine weitere Effizienzsteigerung der Ambulanz zu machen. In diesem Zusammenhang sind die folgenden Vorschläge zu nennen: oDer Arztbrief sollte früher erstellt werden; unter anderem, um die Kommunikation mit dem Hausarzt, auf dessen Überweisung der Patient angewiesen ist, zu verbessern. o Bei den Karteikarten sollten einige zusätzliche Felder definiert werden, die in standardisierter Weise vom behandelnden Arzt auszufüllen sind. Dies gestattet es, in Zukunft ähnliche Statistiken wie die in dieser Arbeit präsentierten leichter und noch präziser auszuarbeiten. o Generell sollte die Flächendeckung der Endokrinologischen Ambulanzen verbessert werden. Auch die Öffnungszeiten könnten den Bedürfnissen berufstätiger Patienten folgend ausgeweitet werden. All dies ist zwar mit einem hohen finanziellen und personellen Aufwand verbunden; volkswirtschaftlich gesehen dürfte aber durch die präzisere Diagnostik und die bessere medikamentöse Einstellung ein gewisser Kompensationseffekt eintreten. Durch die höhere Patientenanzahl wäre eine bessere Kostendeckung gegeben. Beispielsweise wäre die Auslastung der apparativen Einrichtungen bei einer Ganztagssprechstunde deutlich höher.
Die Aufrechterhaltung des physiologischen Gleichgewichtes in einem mehrzelligen Organismus erfordert Mechanismen, welche die Balance zwischen der Toleranz gegenüber Selbst-Antigenen und der Auslösung einer Immunantwort ermöglichen. Diese Mechanismen werden unter dem Begriff periphere Toleranz zusammengefasst. Regulatorische T-Zellen (Treg) sind eine T-Zell-Subpopulation, die für periphere Toleranz und Homöostase des Immunsystems von großer Bedeutung sind (Powrie et al., 2003). Durch ihre suppressiven Eigenschaften sind Treg in der Lage, die Proliferation von konventionellen T-Zellen (Tcon) sowohl in vivo als auch in vitro zu hemmen und so eine Immunantwort von autoreaktiven TZellen einzudämmen. Für die Hemmung von Tcon in vitro wird der direkte Zellkontakt zwischen Treg und Tcon benötigt (Thornton und Shevach, 1998). Der molekulare Mechanismus humaner Treg ist bislang jedoch nur unzureichend geklärt. In der hier vorgestellten Forschungsarbeit wurden TZR-abhängige Signaltransduktionskaskaden analysiert, um den molekularen Mechanismus humaner Treg sowohl auf Ebene der Treg als auch auf Ebene der gehemmten Tcon zu entschlüsseln. Hierzu wurden im Rahmen der hier beschriebenen Experimente in unserer Abteilung die ex vivo Isolation und die in vitro Expansion humaner Treg etabliert. Mit Hilfe sensitiver Analysemethoden der TZR-abhängigen Signaltransduktionskaskaden konnte für humane Treg gezeigt werden, dass sie nach Stimulation über ihren TZR einen geringeren Ca2+-Einstrom im Vergleich zu dem in Tcon aufweisen. Ein weiteres Ergebnis der hier vorliegenden Arbeit ist, dass Treg im Zuge ihrer Aktivierung eine geringere Phosphorylierung einiger, für die TZR-induzierte-Signalkaskade relevante Signalmoleküle wie ERK1/2 und p38MAPK aufweisen. Für gehemmte Tcon aus der Kokultur mit humanen Treg wurde in dieser Forschungsarbeit ein zu Kontroll-Tcon vergleichbarer Ca2+-Einstrom detektiert. Die Ergebnisse dieser Arbeit zeigen außerdem, dass Tcon aus der Kokultur mit Treg eine verringerte Phosphorylierung der Signalmoleküle ERK1/2 und p38MAPK aufweisen. Die hier veröffentlichten Ergebnisse ermöglichen einen ersten Einblick in die molekulare Signaltransduktion von humanen Treg und zum ersten Mal auch in die von gehemmten Tcon. Dieses Verständnis stellt eine Grundlage für weitere Experimente dar und ermöglicht einen Schritt in Richtung der vollständigen Entschlüsselung des molekularen Mechanismus humaner Treg, die eine Voraussetzung für den therapeutischen Einsatz dieser Zellen ist. Eine weitere Zielsetzung dieser Arbeit war es, den Einfluss apoptotischer Zellen auf die Immunantwort zu untersuchen. Für die Gewebehomöostase mehrzelliger Organismen ist die effiziente und immunologisch unauffällige Eliminierung apoptotischer Zellen unabdingbar (Fadok et al., 1998; Lauber et al., 2004; Skoberne et al., 2005; Steinman und Nussenzweig, 2002). Im Rahmen der hier erläuterten Experimente wurden in vitro Studien durchgeführt, die einen inhibierenden Effekt apoptotischer Zellen auf die Reifung humaner dendritischer Zellen zeigen. Es konnte bestätigt werden, dass dendritische Zellen nach Phagozytose apoptotischer Zellen weniger proinflammatorische Moleküle sekretieren und eine geringere Oberflächenexpression kostimulatorischer Moleküle aufweisen. Nach Etablierung zweier in vitro Modellsysteme wurde in weiteren Experimenten gezeigt, dass T-Zellen durch dendritische Zellen, die zuvor apoptotische Zellen aufgenommen haben, eine geringere Stimulation erfahren. Diese Ergebnisse deuten auf einen anti-stimulatorischen Effekt dendritischer Zellen, die zuvor apoptotische Zellen aufgenommen haben hin, und sie bilden die Basis für eine anschließende in vitro Analyse der molekularen Auswirkungen auf dendritische Zellen und T-Zellen.
Studienziel: Das Ziel der Studie war die Klärung der Frage, ob eine systemische Bisphosphonattherapie mit Ibandronat Einfluss auf die Osteointegration von HA-beschichteten und unbeschichteten Titanimplantaten hat. Es sollte die Ibandronatdosis mit dem bestmöglichen Effekt herausgefunden werden. Weiterhin wurde der periprothetische Knochenanteil beurteilt. Methode: Es wurde eine tierexperimentelle Studie mit Ratten durchgeführt. Die Einteilung erfolgte in drei Therapiegruppen, die mit Ibandronat in den Dosierungen 1, 5 und 25 μg/kg Körpergewicht über 27 Tage behandelt wurden, sowie eine Kontrollgruppe, die mit NaCl 0,9% gespritzt wurde. In einer Operation erhielten die Versuchstiere in je einen Femur ein unbeschichtetes- und ein mit Hydroxylapatit-beschichtetes Titanimplantat. Nach 28 Tagen wurden die Femura entnommen und histomorphometrisch ausgewertet. Bestimmt wurde die osteointegrierte Prothesenoberfläche und der relative periprothetische Knochenanteil. Ergebnisse: Eine signifikante Steigerung der osteointegrierten Prothesenoberfläche konnte unter einer Dosierung von 5 und 25 μg/kg KG Ibandronat im Vergleich zur Kontrollgruppe für beide Implantatformen nachgewiesen werden. Ein Anstieg des relativen periprothetischen Knochenanteils zeigte sich in allen Therapiegruppen im Vergleich zur Kontrollgruppe, eine Signifikanz war aber nur bei der höchsten Dosierung (25 μg/kg KG) nachweisbar. Schlussfolgerung: Eine signifikante Verbesserung der Osteointegration unbeschichteter und mit Hydroxylapatit beschichteter Titanimplantate ist in dem durchgeführten Tierexperiment bei einer Therapie mit dem Bisphosphonat Ibandronat in einer Dosierung von 5 und 25 μg/kg KG zu erreichen. Begleitend kam es hierbei auch zu einer Anhebung des periprothetischen Knochenanteils, signifikant war der Effekt nur bei der Dosierung von 25 μg/kg KG. Unsere Ergebnisse legen nahe, dass Bisphosphonate die Sekundärstabilität und Haltbarkeit von zementfreien Implantaten verbessern können. Zukünftige Studien müssen die klinische Relevanz der Ergebnisse überprüfen.
Ribozyme und siRNAs sind in der Lage, durch sequenzspezifische Spaltung der viralen RNA, die HIV-Replikation in vitro zu inhibieren. Es konnten bis jetzt allerdings nur wenige Antisense-basierte Therapeutika entwickelt werden, die eine ausreichend effiziente antivirale Wirkung in klinischen Studien zeigen. In dieser Arbeit wurden verschiedene Untersuchungen zur Wirksamkeit von therapeutischen RNA-Effektor-Molekülen durchgeführt. Die Effizienz von exogen in Zellen transfizierter therapeutischer siRNAs wird von vielen Faktoren beeinflusst. Neben der Bindung der Effektor-RNA an ihre Ziel-RNA und der Stabilität der Effektor-RNA sind weitere wichtige Faktoren die Lokalisation innerhalb der Zelle sowie die Effizienz der Transfektion. Zur Beurteilung der Knockdown-Effizienz einer exogen zugeführten Effektor-RNA bedarf es somit einer Meßmethode, die diese unterschiedlichen Parameter berücksichtigt. Wesentlich ist dabei insbesondere die Transfektionseffizienz, in den meisten in vitro Studien finden jedoch Unterschiede in der Transfektionseffizienz wenig Beachtung. Da die Wirksamkeit der Effektor-RNA in einer Zelle nur dann hinreichend beurteilt werden kann, wenn bekannt ist wie viel RNA in die jeweilige Zelle transfiziert wurde, wurde ein Assay-System etabliert, mit welchem die Konzentrations-Wirkungs-Beziehung der Effektor-Moleküle ermittelt werden kann. Mit Hilfe dieses Assay-Systems wurde in dieser Arbeit der Einfluss verschiedener Nukleotidanaloga auf die Wirksamkeit von siRNAOligonukleotiden untersucht. Bei dem einen Nukleotidanaloga handelt es sich um das 2,4,6-Trifluorbenzene, eine universelle Base, welche den RNA-Duplex partiell destabilisiert. Es konnte bereits gezeigt werden, dass für die Effektivität von siRNAs ein thermodynamisch destabilisiertes 5’-Ende des antisense-Stranges von Vorteil ist. Eine siRNA mit zwei 2,4,6-Trifluorbenzenen am 5’-Ende des sense-Stranges zeigte eine erhöhte Effektivität gegenüber den Kontrollen. Das zweite Nukleotidanaloga war das 4,6-Difluorbenzimidazol. Dabei handelt es sich ebenfalls um eine universelle Base, die nicht zwischen den einzelnen Basen diskriminiert. Die Verwendung dieser Base soll die Toleranz einer verwendeten siRNA gegenüber Punktmutationen erhöhen. Im Einsatz gegen HIV könnte diese Strategie die Bildung von Escape-Mutanten verhindern. Diese Base wurde an den Positionen 7 und 10 im antisense-Strang eingebaut. Als Kontrollen wurden an diesen Positionen mismatch-Basenpaarungen eingesetzt. An diesen Positionen werden mismatch-Basenpaarungen allerdings gut toleriert, so dass durch den Einsatz des 4,6-Difluorbenzimidazol keine Effektivitätssteigerung erreicht werden konnte. Durch gezielte Punktmutagenese konnten Nukleotidpositionen innerhalb des siRNA Moleküls identifiziert werden, bei denen mismatch-Basenpaarungen zu einem hohen Aktivitätsverlust führen und an denen der Einbau des 4,6-Difluorbenzimidazol sinnvoll erscheint. Ein zweiter Teil dieser Arbeit beschäftigt sich mit anti-HIV Ribozymen. In unserer Arbeitsgruppe wurden mehrere neue anti-HIV Ribozyme entwickelt und charakterisiert. Das Hammerhead Ribozym gegen das 13. GUC Triplett im Pol Gen erwies sich als äußerst effizienter Inhibitor der HIV-Replikation in vitro. In dieser Arbeit konnte die antivirale Wirksamkeit durch Bestimmung der kinetischen Parameter bestätigt werden. Der Wert für Kcat von 3,9 min-1 entspricht der Spaltungsrate von Hammerhead Ribozymen von <5 min-1. Der ermittelte Wert ist verglichen mit anderen anti-HIV Ribozymen sehr hoch. Es handelt sich um ein Ribozym mit einer sehr hohen molaren katalytischen Aktivität. Die antivirale Wirkung dieses anti-HIV Ribozyms sollte durch die Kolokalisation an seine Target-RNA zusätzlich verbessert werden. Ribozyme binden sequenzspezifisch an ihre Target RNA, das Zusammentreffen von Ribozym und Ziel-RNA ist jedoch ein zufälliges Ereignis. Es konnte bereits gezeigt werden, dass die Kolokalisation von Ribozymen zu einer Effektivitätssteigerung führt. Es war geplant das Ribozym über RNA-Aptamere an die HIV-1 Proteine Tat und Rev zu kolokalisieren, da beide Proteine spezifisch über ihre RNA Bindedomäne an die HIV mRNAStrukturen TAR (Tat Activated Region) bzw. RRE (Rev Responsive Element) binden. In dieser Arbeit konnten Expressionssysteme und die Reinigung für beide viralen Proteine etabliert werden, allerdings ließ sich das Affinitätstag nicht durch Proteaseverdau entfernen. Aus diesem Grund wurde die Selektion der Aptamere mit Peptiden durchgeführt. In dieser Arbeit konnten jedoch keine RNAs identifiziert werden, die eine Affinität zu den Peptiden aufwiesen. RNA Interferenz wird zunehmend als das effektivste Verfahren zum spezifischen Knockdown einer mRNA angesehen. Zum Vergleich von siRNA mit anti-HIV Ribozymen wurden überlappende Zielsequenzen im HIV-1 Pol Gen für beide Effektor-Moleküle identifiziert und ihre antivirale Wirkung verglichen. Beide Ribozyme und shRNAs wurden retroviral in T-Zellen exprimiert, um die antivirale Wirkung der beiden Effektor-Moleküle vergleichen zu können. Die antivirale Aktivität der siRNAs wurde nach HIV-1 Exposition mit der unseres Referenzribozyms HHPol 13 verglichen. Die siRNA gegen eine Sequenz im Bereich des 7. GUC Tripletts im HIV-1 Pol Gen war in der Lage die HIV Replikation effektiv zu hemmen. In gleicher Weise konnte dies auch das Referenzribozym gegen das 13. GUC Triplett im Pol Gen. Die siRNA, die gegen die gleiche Sequenz wie das effektive Ribozym gerichtet war, zeigte hingegen keinerlei antivirale Aktivität. Dieses Ergebnis zeigt, dass ein Ribozym ebenso effektiv wie eine siRNA die HIV Replikation hemmen kann. Die siRNA, die gegen die gleiche Sequenz wie das effektive Ribozym gerichtet ist, hatte keine antivirale Aktivität. Neben der Zugänglichkeit der Ziel-RNA beeinflussen scheinbar noch andere Faktoren die Effizienz von siRNA-Molekülen. In diesen Experimenten wurden erstmals systematisch siRNAs und Ribozyme gegen identische Zielsequenzen miteinander vergleichen. Der antivirale Effekt der siRNA Pol7 wurde näher untersucht. Um die Effizienz der siRNA leichter zu bestimmen und vergleichen zu können, wurden die weiteren Versuche mit synthetischen Oligonukleotiden und der Zelllinie Hela-P4 CCR5 durchgeführt. Dabei zeigte die siRNA eine sehr gute Inhibition der viralen Replikation.
Tourismus in Pakistan : Darstellung, Stellenwert und Perspektiven aus entwicklungspolitischer Sicht
(2006)
Musik, Musikalität und Musikpraxis übten in allen Epochen der europäischen Kulturgeschichte eine große Faszination auf Künstler, Philisophen und Naturwissenschaftler aus. So setzten sich schon die Kirchenväter des Mittelalters oder Naturforscher wie Johannes Kepler mit musiktheoretischen Fragen auseinander. Seit dem 19. Jahrhundert aber wurde mit dem Aufkommen des Virtuosentums und mit dem Erscheinen von Künstlern wie Franz Liszt und Nocoló Paganini das technische Können des Instrumentalisten immer mehr in den Vordergrund gestellt. Die Konzerthäuser wurden zu einer musikalischen Hochleistungsarena. Ähnlich wie im Leistungssport gilt auch für den Musiker das Prinzip schneller, höher, weiter. Besonders in den letzten zwanzig Jahren sind die Anforderungen, die von Musikhochschulen und Konservatorien bei Aufnahmeprüfungen an die Bewerber gestellt werden, signifikant gestiegen. Die Studenten der Hochschulen und Frühbegabtenklassen werden immer jünger und immer besser. Das bedeutet gleichzeitig, daß schon kleinste Verletzungen und Irritationen – besonders im neurologischen Bereich – eine professionelle Musikerlaufbahn unmöglich machen. Nur geringe Koordinationsschwierigkeiten der Hände, ein Kribbeln oder eine geringe Verlangsammung der Bewegungsabläufe, können die Musikausübung auf so hohem Niveau entscheidend beeinträchtigen. Aus diesem Grund soll sich die vorliegende Arbeit speziell dem Gebiet der neurologischneurochirurgischen Erkrankungen widmen, weil diese das „Steuerungszentrum des Musikers“ – das Gehirn – direkt betreffen. Seit die 90-er Jahre des 20. Jahrhundert zur „Dekade des Gehirns“ erklärt wurden, rückte auch das Gehirn des Musikers in den Aufmerksamkeitsfocus der Neurowissenschaftler. Im Vordergund stand hierbei die Grundlagenforschung, weniger klinische Fragestellungen, die einen betroffenen Musiker direkt betreffen. Daher soll mit der vorliegen Arbeit ein Versuch unternommen werden, die Auswirkungen von neurologischen Erkrankungen, SchädelHirnVerletzungen oder Hirnoperationen auf die Musikausübung aufzuzeigen. Dies soll anhand historischer Fallstudien großer Komponisten vom Barock bis zum 20. Jahrhundert sowie zeitgenössischer MusikerPatienten geschehen. Auf dem Gebiet der Neurochirurgie wurden in den lezten Jahren bedeutende Fortschritte erzielt und neue, schonende Operationstechniken entwickelt. So können Eingriffe am Zentralnervensystem heute immer präziser ausgeführt werden. Die Wahrscheinlichkeit, eine bleibende Behinderung davonzutragen, ist drastisch gesunken, jedoch kann ein solcher Eingriff trotz aller modernen Techniken auch heute noch für eine professionelle Musikerlaufbahn das Aus bedeuten. Problematisch ist, daß es weder aus dem medizinischen noch aus dem musikpädagigischen/musikwissenschaftlichen Bereich Empfehlungen oder Erfahrungen gibt, wie eine neurologische Rehabilitation für den Musiker durchgeführt werden könnte oder wie der Musiker mit einer solchen Erkrankung umgehen sollte. Auch für die technische Arbeit und einen möglichen Wiederaufbau erlernter Fertigkeiten am Instrument gibt es keine Erfahrungswerte. Wie bei jeder Rehabilitation sollte das Ziel sein, seine alten Fähigkeiten und Leitsungsniveaus wiederzuerlangen. Für den Musiker ist es jedoch sehr schwer, diesbezüglich Hilfe und Beratung zu bekommen. In ganz Deutschland gibt es an nur zwei Musikhochschulen Spezialsprechstunden für Musikermedizin, viel zu wenig, wenn man bedenkt, daß es in Deutschland etwa 30 000bis 40 000 Berufsmusiker gibt. Noch schwerer ist es für den Musiker, einen Arzt zu finden, der auf die neurologischen Grundlagen des Instrumentalspiels spezialisiert ist. Bei Verletzung und geplanten Operationen des Gehirns ist daher beim Musiker nicht nur eine neurochirurgische Behandlung notwendig. Schon bei der Planung der Operation muß bedacht werden, welche anatomischen Strukturen des Gehirns für die Musikausübung- und Wahrnehmung von Bedeutung sind und daher so weit wie möglich geschont werden müssen. Die Planung, Durchführung und Nachsorge einer solchen Behandlung macht daher die koordinierte Zusammenarbeit zwischen Patient, Arzt und Musikpädagogen notwendig, um dem betroffenen Musiker eine erfolgreiche Rehabilitation zu ermöglichen. Ziel der Arbeit ist es, anhand von Fallbeispielen Zusammenhänge von neurologischen Funktionen und Musikausübung darzustellen und die Chancen einer erfolgreichen neurologisch- neurochirurgischen Behandlung und Rehabilitation beim Musiker aufzudecken.
Für die geplanten Untersuchungen wurde eine eigene Methode für die Kultur primärer humaner Bronchialepithelzellen etabliert. Die Bronchialepithelzellen wurden aus Lungenteilresektaten durch eine cytologische Bürstung gewonnen. Die verwendeten Kulturschalen wurden mit Kollagen beschichtet. Als serumfreie Kulturmedien wurden ein Expansionsmedium und ein Differenzierungsmedium verwendet. Dabei enthielt das Expansionsmedium proliferationsfördernde Supplemente, was zu einer deutlich gesteigerten Zellausbeute gegenüber der Verwendung handelsüblicher Medien führte. Im Differenzierungsmedium wurden Supplemente verwendet, die für die Differenzierung und Ziliogenese bronchialer Epithelzellen erforderlich sind. Die Kultur erfolgte an einer Luft-Medium-Grenzfläche, die für Bronchialepithelzellen eine physiologische Umgebung darstellt. Die Charakterisierung der Kulturen zeigte keine Verunreinigungen mit Fibroblasten, Muskelzellen oder Zellen mesenchymalen Ursprungs. Das charakteristische kopfsteinplasterartige Erscheinungsbild, sowie der immunhistochemische Nachweis von Cytokeratin 18 belegten den bronchoepithelialen Charakter der Kulturen. In der vorliegenden Arbeit wurde mit der RT-kompetitive Multiplex-PCR (RCMP) eine Technik entwickelt, mit deren Hilfe die Expression von Genen in niedriger Kopienzahl oder aber in Proben mit geringer RNA-Menge nachgewiesen werden kann. Geringe Ausgangsmengen an RNA wiesen vor allem die Primärkulturen von humanem Bronchialepithel, als auch frische Gewebebürstungen des Bronchial- und Nasenepithels auf. Die RCMP basiert auf einer kompetitiven PCR und kombiniert eine exogen interne und endogen interne Standardisierung. Damit wurde die mRNA-Expression von bis zu vier Genen in einem Ansatz analysiert. Die RCMP löst dabei mehrere Probleme herkömmlicher PCR-Verfahren: 1. mRNAs mit hoher oder niedriger Kopienzahl können in einem Ansatz koamplifiziert werden. 2. Die semiquantitative Quantifizierung ist unabhängig von den Syntheseeffizienzen von Target und Referenzgenen. 3. Die RCMP kontrolliert Schwankungen der initialen RNA-Menge. 4. Die Unabhängigkeit der RCMP von der Kenntnis der initialen RNA Menge erlaubt auch die Bestimmung von Probenmaterial in dem nur geringe mRNA-Mengen vorhanden sind. Damit eignet sich die RCMP besonders für Expressionsstudien Materialien wie Bioptaten, Nasal- oder Bronchialbürstungen, sowie den Kulturen primärer Bronchialepithelzellen. Mit Hilfe der RCMP wurden erstmals die mRNA der Osmolyttransporter BGT-1, SMIT und TAUT in Bronchialepithelzellen nachgewiesen. Nach Behandlung mit hyperosmotischen Medien wurde die mRNA-Expression dieser Transporter stark induziert. Bronchialepithelzellen perzeptieren osmotische Belastungen und versuchen, ihnen entgegenzuwirken. Hyperosmotische Belastungen können in Bronchialepithelien zu einer Inflammation ohne zugrunde liegende Infektion führen. Dabei wird zeit- und dosisabhängig sowohl die Sekretion als auch die Expression von IL-8 induziert. An dieser Induktion ist die p38 MAP-Kinase beteiligt. Reaktive Sauerstoffspezies (ROS) sind sowohl an der Induktion der IL-8 Sekretion und Expression beteiligt, als auch an der Aktivierung der p38 MAPKinase. Weiterhin zeigte sich, dass die Induktion der Sekretion von IL-6 und IL-8 abhängig von osmotisch bedingten Änderungen des Zellvolumens ist. Auch hier wird bereits die p38 MAP-Kinase durch das Zellvolumen reguliert. Die Ergebnisse legen ein mögliches Modell für die initialen Vorgänge in der CF-Lunge nahe. Die Veränderungen des Ionenhaushalts bei der cystischen Fibrose, sowie die eingeschränkte Zellvolumenkontrolle bei CF-Zelllinien, weisen darauf hin, dass ein defektes CFTR-Protein zu einer von neutrophilen Granulozyten dominierten Inflammation führen kann, ohne das die Lunge bereits mit Erregern besiedelt wurde.
Bei Patienten mit koronarer Herzkrankheit (KHK) wird angenommen, dass es aufgrund der Apoptose von Endothelzellen zu einer Störung des endothelialen Zusammenhaltes kommt, was ein Fortschreiten der Atherosklerose zur Folge hat. Unter normalen Bedingungen bewirkt eine Gefäßwandverletzung eine Mobilisierung von im Knochenmark befindlichen endothelialen Progenitorzellen, was möglicherweise zur Reendothelisation der verletzten Gefäßwand beiträgt. Personen mit kardiovaskulären Risikofaktoren und einer manifesten KHK jedoch haben eine niedrigere Anzahl zirkulierender EPCs. Aus diesem Grund untersuchten wir bei Patienten mit stabiler KHK und mit ACS das Gleichgewicht zwischen zirkulierenden EPC und zirkulierenden apoptotischen maturen endothelialen Zellen (CAEC), und beobachteten, ob Statine ECs bei Patienten mit KHK vor der Apoptose schützen.
Die Bestimmung der EPCs erfolgte mit Hilfe der Durchflusszytometrie (FACS) durch die Inkubation mit CD133 und KOR. Es zeigte sich, dass Patienten mit einem AMI im Vergleich zur Kontrollgruppe die niedrigsten Werte an zirkulierenden EPCs aufwiesen (ca. 3,5fach niedriger), gefolgt von Patienten mit instabiler und stabiler KHK. Die Anzahl zirkulierender ECs hingegen (CD45-negativ, CD146-positiv und vWF-positiv) war bei Patienten mit AMI im Vergleich zur Kontrollgruppe um das 5fache erhöht (P < 0,01).
Um die Anzahl an CAEC zu bestimmen, ermittelten wir mittels einer 4-Kanal-Durchflusszytometrie die Annexin V-positiven Zellen aus CD45-negativen, CD146- positiven und vWF-positiven zirkulierenden Zellen aus peripheren Blutproben von Patienten mit KHK.
Wir konnten zeigen, dass diese Zellen bei Patienten mit AMI im Vergleich zu einem gesunden alters- und geschlechtskompatiblen Probandenkollektiv um das 10fache erhöht waren. (P < 0,05)
Um ein Maß für die veränderte Balance verschiedener Endothelzellen zu erhalten, ermittelten wir einen "Schädigungsindex" (Quotient aus CAEC und EPC), der bei Patienten mit stabiler KHK bereits ein relatives Überwiegen der Apoptose bei unzureichend erniedrigten EPCs anzeigte und bei Patienten mit AMI die ungünstigste Konstellation mit einem um das 30fache erhöhten Index ergab.
Da kardiovaskuläre Risikofaktoren bekanntermaßen die Atheroskleroseentstehung begünstigen, untersuchten wir, ob sie auch Einfluss auf die Anzahl zirkulierender CD133- positiver EPCs haben. In einer multivariaten Analyse blieben die Krankheitsaktivität der KHK und eine positive Familienanamnese als unabhängige signifikante Prädiktoren einer reduzierten Anzahl zirkulierender CD133-positiver EPCs bestehen.
Um die Herkunft der ECs zu bestimmen, wurden selektiv Blutproben aus der Aortenwurzel und der V.cordis mag na untersucht. Patienten mit ACS wiesen einen transkoronaren Anstieg der CAEC um 35% in der V.cordis magna verglichen mit der Aorta auf. Ebenso war bei Patienten mit ACS der "Schädigungsindex" in der V.cordis magna signifikant höher als in der Aorta.
Hydroxymethyl- Glutaryl- Goenzym-A-Reduktasenhibitoren (Statine) senken die kardiovaskuläre Ereignisrate sowohl in der Primär- als auch in der Sekundärprävention kardiovaskulärer Erkrankungen.
Eine retrospektive Studie mit n = 34 Patienten mit KHK zeigte, dass die Anzahl an CAEC bei Patienten ohne Statin signifikant niedriger war als bei den Patienten, die ein Statin bekommen hatten (mittlere Dosis 20mg per os). Zudem zeigte sich bei der Berechnung des Schädigungsindex, dass die Statintherapie eine Abnahme des Quotienten um das 15- fache bewirkte. Um dieses Ergebnis zu bestätigen maßen wir in einer prospektiven Studie die CAEC-Level bei n = 9 Patienten mit KHK vor und nach einer 4- wöchigen Behandlung mit Atorvastatin. Die Behandlung mit Atorvastatin führte zu einer signifikanten Abnahme sowohl der CAEC- Level als auch der prozentualen Apoptoserate.
Zusammenfassend zeigt diese Arbeit, dass bei Patienten mit akuter KHK das Gleichgewicht zwischen EPG und apoptotischen maturen Endothelzellen gestört ist und dass eine Statintherapie das Gleichgewicht zwischen Endothelzellverletzung und vaskulären Reparaturmechanismen in Richtung einer Erhaltung des endothelialen Zusammenhaltes beeinflusst.
Einleitung: Die Arbeit stellt den in der Medientheorie bezüglich neuer Kommunikationsmedien und virtuellen Arbeitsmöglichkeiten im Internet vorherrschenden Mythen die empirischen Befunde der Untersuchung einer medial unterstützten, interdisziplinär und räumlich verteilt praktizierten Forschungskooperation gegenüber. Damit betritt sie Neuland, da der Einsatz neuer Kommunikationstechnologien bisher vor allem im Rahmen organisationssoziologischer Studien im Bereich der Wirtschaft, im Bereich des E-Learnings oder für nicht-wissenschaftliche Nutzergruppen im öffentlich zugänglichen Internet analysiert worden sind. Die Studie offenbart dabei die Wirkmächtigkeit lokal gegebener Bezüge und Relevanzen, welche die immer wieder betonten medial gegebenen Freiheiten eines raumund zeitunabhängigen, global angelegten Agierens weitgehend demontieren. Virtualisierte Kooperationsszenarien und Globalität verkörpern dabei den Mythos der medialen Freiheit, das Lokale dagegen holt diese ideal gedachten Visionen auf den Boden der empirischen Tatsachen mit seinen im soziokulturellen Feld „Wissenschaft“ eingebundenen Akteuren zurück. Dieses Ergebnis birgt wissenschaftspolitischen Sprengstoff, denn extensive Mediennutzung und Interdisziplinarität gelten als zentrales Gebot der Zeit und werden als unumgänglich angesehen – können aber im System Wissenschaft mitunter nicht durchsetzbar sein. Die Studie zeigt, dass die in der Medientheorie und Populärmedien verkündeten Möglichkeiten des universellen Einsatzes von neuen Kommunikations- und Medientechnologien für die sozial- und kulturwissenschaftlichen Forschung relativiert werden müssen: Medien werden schwerpunktmäßig als Fortsetzung traditioneller Arbeitsmethoden, dann jedoch durchaus auch sehr effektiv eingesetzt. Ausgangspunkt der empirischen Erhebung ist die medienphilosophisch gestützte Hypothese, dass sich im Feld der Wissenschaft die in digitalen Medien angelegten Möglichkeiten optimal entfalten können und so gegebene Potenziale in greifbare Nähe rücken, etwa eine neue Dimension von Erkenntnismöglichkeiten durch kollektive Wissensgenese. Die Arbeit befasst sich daher mit Einsatz und Bedeutung computervermittelter Kommunikation in einem interdisziplinär und raumübergreifend etablierten Forschungsverbund, wobei das Hauptaugenmerk auf den praktizierten Modi der medial unterstützten Kooperation liegt. Der Zugang zum Feld erfolgte daher mittels teilnehmender Begleitforschung über einen Zeitraum von zwei Jahren. Die methodische Vorgehensweise ist an einer ethnographischen Forschungsauffassung orientiert und setzt auf eine gegenstandsorientierte Verwendung qualitativer Methoden. Es zeigt sich, dass die erwarteten und aktiv angestrebten positiven Effekte keine selbstständig eintretende Folge der Verfügbarkeit ermöglichender technischer Szenarien sind, die sich etwa in Form vernetzter Computer installieren lassen. Vielmehr bildet die Logik des Feldes Wissenschaft mit seinen darin wirksamen institutionellen Strukturen den maßgeblichen Orientierungsrahmen, an dem die beobachtbare Medienverwendung ausgerichtet wird. So kommt bspw. zum Tragen, dass im Wissenschaftlichen Habitus der Stellenwert einer medialen Präsenz oder technischen Expertise unterbestimmt sind und diese keinen elementaren Bestandteil der üblicherweise praktizierten Forschungstätigkeit bilden. Anstatt einer medial bereicherten Erkenntnisproduktion dominiert so ein pragmatischer Medieneinsatz konzentriert auf das unmittelbar Notwendige. Speziell zugeschnittene digitale Möglichkeitsräume für eine wissenschaftliche Auseinandersetzung (Foren, Wiki, Bild- und Videodatenbank) mit dem gemeinsamen Gegenstand erhalten im untersuchten Feld so den Charakter eines randständigen Schauplatzes und etablieren sich nicht als maßgeblicher Austragungsort der gemeinsamen Diskussion. Unmittelbar aufgabenbezogen einsetzbare Ressourcen dagegen, die bereits in Alltagsroutinen integriert sind wie die E-Mail, haben jedoch ihren festen Stellenwert, etwa in technisch-administrativen Fragen oder im Hinblick auf das laufende Informationsmanagement. In den praktizierten Nutzungsweisen ist somit eine deutliche Dominanz des Schriftlichen im Umgang mit den eingesetzten Informationstechnologien vorherrschend: Für den zeitversetzten medienvermittelten Austausch müssen zur Diskussion stehende Inhalte zunächst in die Textform überführt werden. Phänomene, Themenaspekte oder Materialien, die sich (noch) gegen die Schriftsprache sperren, sind folglich charakterisiert durch „Schweigen“. Schweigen tritt im körperlosen virtuellen Raum und in schriftbasierten Medien jedoch nicht in Erscheinung. Ungeschriebenes ist daher im virtuellen Raum nicht existent und entzieht sich der gemeinsamen, raum- und zeitunabhängigen Bearbeitung. Neue Medien sind als sozial überformte Technologie folglich nicht ausgehend von darüber bereitgestellten Funktionen definierbar. Trotz der Topoi einer digitalen Revolution oder einer Informations- und Wissensgesellschaft, über die das Internet fester Bestandteil der gegenwärtigen materiellen und ideellen Infrastruktur wurde, erhalten die technologischen Artefakte ihre Bedeutung erst in der individuell ausgestalteten Verwendung durch die mit ihr befassten Akteure, wie die Studie über ihren exemplarischen Zugang für den Bereich der sozial- und kulturwissenschaftlichen Forschung zeigt.
In einer retrospektiven Untersuchung von 388 Patienten untersuchten wir, ob eine Therapie mit Statinen (HMG-CoA-Reduktasehemmer) das mit erhöhten CRP-Serumspiegeln verbundene Risiko für kardiale Ereignisse nach koronarer Stentimplantation beeinflussen kann. Die Untersuchung zeigte, dass sich bei Patienten mit erhöhten CRP-Spiegeln ohne eine Statintherapie kardiale Ereignisse signifikant häufiger ereigneten (RR 2.37, 95% CI [1.3-4.2]). Dabei ist von Bedeutung, dass Patienten mit einem erhöhten CRP-Spiegel, die eine Statintherapie erhielten, etwa das gleiche relative Risiko für erneute Ereignisse hatten (RR 1.27[0.7-2.1]) wie Patienten in der Gruppe mit CRP–Spiegeln unter 0.6 mg/dl, die keine Statintherapie erhielten (RR1.1 [0.8-1.3]). Die Resultate dieser Arbeit demonstrieren, dass eine Statintherapie das erhöhte Risiko für kardiovaskuläre Ereignisse bei Patienten mit erhöhtem CRP-Serumspiegel nach koronarer Stentimplantation signifikant vermindern kann. Erhöhte CRP-Spiegel scheinen somit unabhängig von Cholesterinspiegeln ein aussagekräftiger Parameter zu sein, um den Patienten eine Statintherapie zukommen zu lassen, die ein besonders hohes Risiko für koronare Ereignisse nach Stentimplantation haben.
Die Überzeugung, dass der Computer nicht als Werkzeug, sondern als Medium zu denken sei, hat in den zurückliegenden Jahren die Debatte zu einer Medientheorie des Computers wesentlich geprägt. Damit war insbesondere eine bestimmte Auffassung des Technischen verbunden. Die Effekte der technischen Medien lassen sich, so der Gedanke, nicht über die Aktivierung anthropologischer Schemata begreifen, vielmehr müssen die Medien in ihrer Technizität ernst genommen werden. Dies heißt aber nichts anderes, als dass der Technik ein Eigenwert zuzugestehen sei, der sich gerade nicht vom Menschen her konturieren lässt. Hierüber diskreditiere sich dann letztlich eine Rede von den Medien als werkzeughaften Extensionen des Menschen. Demgegenüber soll in dieser Arbeit der Vorschlag unterbreitet werden, den Computer eben doch wieder vom Werkzeug her zu denken. Damit soll jedoch keinesfalls über den erreichten Stand medientheoretischer Positionen hinweggesehen werden. Mit dem Medienbegriff umzugehen bedeutet nicht zuletzt, den epistemischen Status mitzureflektieren, den die Medien inne haben. Sie geben den Rahmen vor, in dem sich die Subjekte äußern können. Die Medien strukturieren diese Äußerungen bereits vorab bzw. ermöglichen überhaupt erst bestimmte Äußerungsformen. Sich hierüber Rechenschaft abzulegen bedeutet aber nicht notwendig, die Metapher einer werkzeughaften Nutzung des hoch technischen neuen Mediums als trügerisch verwerfen zu müssen. Gerade diese Nutzungsweise unterscheidet den Computer vom vorherrschenden Medienparadigma des 20. Jahrhunderts, von Film und Fernsehen und dem daraus abzuleitenden Status des Rezipienten als Rezipienten. Die vorliegende Arbeit betreibt also Werbung für einen produktiven Gebrauch des neuen Mediums, wobei es jedoch nicht darum geht, den Computer als eine Art Befreiung von den "Zwängen" der anderen technischen Medien zu positionieren. Sofern Medien überhaupt -- im strengen Sinne – Zwänge ausüben, so wäre doch nicht einzusehen, warum dies beim Computer anders sein sollte. Dennoch: Dass es so etwas wie eine "Creative Commons" gibt, dass es immer selbstverständlicher wird, wenn Nutzer ihre kreativen Produkte nicht nur mit anderen Nutzern teilen, sondern sie es darüber hinaus ermöglichen, dass auf Basis ihrer Produkte weitergearbeitet werden kann, nährt die Vermutung eines sich ändernden Verhältnisses zwischen den Nutzern und den Medien. Zentrales Ziel dieser Arbeit ist daher zunächst, die sich in der Medienwissenschaft bereits etablierte Perspektive auf den Computer als eines Textmediums zu kritisieren, da hierüber allzu leichtfertig eine bestimmte Nutzungsweise des Computers verabsolutiert werden kann: Einzig der programmierende Zugriff gilt als emanzipativ. Daran anschließend möchte ich nach einer kurzen Diskussion des Medienbegriffes das in der Softwareentwicklung lange Zeit bestimmende Gestaltungskonzept der Werkzeugnutzung für eine neuerliche Verwendung in der Medienwissenschaft vorschlagen. Vorteil ist, dass hiermit auch Nutzerpraxen adäquat einbezogen werden können, die sich auf den "Oberflächen" der Software abspielen. Betrachtet man Medien nicht als bloße Übertragungskanäle und versucht man, die produktive Seite von Medientechnologien in den Blick zu nehmen, dann weist die "Botschaft" des neuen Mediums in die Richtung eines Wechsels vom Rezipienten zum Produzenten. In dieser Perspektive erscheinen die Nutzer nicht mehr nur als Anhängsel der Technik. Sie sind nicht von ihr aus zu bestimmen, ebenso wenig wie die Medientechnik rein vom Menschen her zu bestimmen wäre. Um die These einer werkzeughaften Verwendbarkeit des Computers auszuführen, konzentriert sich die vorliegende Arbeit auf bestimmte Texte, die genauer diskutiert und in die Argumentation integriert werden. Dies erscheint mir fruchtbarer als der Versuch, das gesamte Spektrum der neueren Diskussion um den Computer als Medium aufgreifen und synthetisieren zu wollen. Die Gliederung verläuft dementsprechend weitgehend entlang dieser (theoretischen) Referenzen.
Zielsetzung Die vorliegende Arbeit beschäftigt sich mit der Analyse der Hirndruckpulsamplitude (ICPAmpl.) als neuen Parameter zur Bestimmung einer für den cerebralen Perfusionsdruck optimalen Oberkörperlagerung. Unter normalen klinischen Konditionen bleiben die die ICPAmpl. bestimmenden Faktoren – Compliance und Herzschlagvolumen – konstant. Daher ist es durch die Untersuchung der ICPAmpl. möglich, Rückschlüsse auf den cerebrovaskulären Gefäßwiderstand (CVR) und damit den cerebralen Perfusionsdruck (CPP) zu ziehen. Methoden Bei 40 neurochirurgischen Patienten wurden prospektiv Alter, Geschlecht, Erkrankung, Glasgow-Coma-Scale, Ort der Hirndrucksonde und die Beatmungsparameter untersucht. Die Veränderungen des intrakraniellen Drucks (ICP), des cerebralen Perfusionsdrucks (CPP), des mittleren arteriellen Drucks (MAP) sowie der Hirndruckpulsamplitude (ICPAmpl.) wurden bei Oberkörperlagerungen von 0°, 30°, 60°, 30°, 0° gemessen und analysiert. Ergebnisse Insgesamt 36 Probanden erfüllten die Studienbedingungen (n=36), aufgeteilt in 21 Frauen und 15 Männer. Das mittlere Alter betrug 55,5 Jahre (± 2,58). Der Glasgow-Coma-Scale-Wert betrug bei allen eingeschlossenen Patienten 3. Bei dem Vergleich der Messwerte von 0°- und 60°-Oberkörperlagerung zeigte sich eine signifikante Verbesserung des ICP (p<0,001), eine Zunahme der ICPAmpl. (p<0,001), eine Verschlechterung des CPP (p<0,001) sowie eine Reduktion des MAP (p<0,001). Schlussfolgerung Die aus den gemessenen Daten einer liegenden Hirndrucksonde relativ einfach bestimmbare ICPAmpl. lässt wichtige Rückschlüsse auf den cerebralen Vasomotorentonus zu. Bisher war jedoch unklar, ob es einen Zusammenhang zwischen der ICPAmpl. und dem CPP gibt, der für die klinische Routine einer Intensivstation nutzbar ist. Diese signifikante Beziehung der beiden Parameter konnten wir finden und darstellen. Unter der Kenntnis der negativen Korrelation zwischen ICPAmpl. und CPP und da sich die ICPAmpl. bei erhaltenem Vasomotorentonus der cerebralen Arteriolen im Vergleich zu den anderen Parametern (ICP, CPP, MAP) gegensätzlich verhält, sollte sie bei der für den CPP optimalen Oberkörperlagerung möglichst gering sein. Wir konnten in Gegenüberstellung der einzelnen Messwerte bei Lagerung von 0°, 30°, 60°, 30°, 0° den kleinsten Mittelwert der ICPAmpl. bei jeweils 30° finden. Somit scheint uns unter den gemessenen Positionen diese Oberkörperlagerung ein guter Kompromiss zwischen einerseits hohem CPP bei erhaltener cerebraler Autoregulation und andererseits niedrigerem ICP zu sein. Da wir wissen, dass zur Vermeidung von sekundären Hirnschäden eine Konstanthaltung des cerebralen Blutflusses (CBF) von Bedeutung ist, bedingt dies eine erhaltene cerebrale Autoregulation. Bei erschöpftem cerebralen Vasomotorentonus kann eine Erhöhung des CPP unter anderem eine Hyperämie, ein vasogenes Ödem und damit eine sekundäre ICP-Anhebung – mit allen daraus resultierenden Komplikationen – triggern. Deshalb wird die regelmäßige, patientenspezifische Suche nach der Grenze zwischen adäquatem und nicht mehr adäquatem CPP gefordert. Die Position der Oberkörperlagerung ist ein denkbar einfach durchzuführender, kostenneutraler und trotzdem bedeutsamer Therapieaspekt in der neurochirurgischen Intensivmedizin. Auf der Suche nach der optimalen, patientenspezifischen Lagerung könnte sich daher in der klinischen Routine eine einfache, komplikationsarme Messung etablieren. Da wir zeigen konnten, dass eine zunehmende ICPAmpl. mit einem abnehmenden CPP verknüpft ist, könnte die im Vergleich der einzelnen Werte niedrigste ICPAmpl. somit einen wichtigen Beitrag zur optimalen, individuellen Oberkörperlagerung leisten.
Diese Arbeit beschäftigt sich mit dem Wiederaufbau der Stadt Frankfurt in den Jahren 1945 bis 1965. Die wichtigsten Stationen dieser Nachkriegsjahre werden mit der Architektengemeinschaft Alois Giefer und Hermann Mäckler verknüpft. Giefer und Mäckler haben in dieser Stadt viele Bauaufgaben vom Wohnungsbau über den Kirchenbau bis zum Ausbau des Frankfurter Flughafens übernommen. Mit der erstmaligen Präsentation des Gesamtwerkes dieser Architektengemeinschaft soll das Interesse für die Architekten und darüber hinaus auch für die Frankfurter Nachkriegsmoderne geweckt werden. Dieses Anliegen scheint besonders in der heutigen Zeit notwendig zu sein, da diese Architekturepoche in Frankfurt durch Abriß bedroht ist. ...
Evaluation der Effektivität der kombinierten TACE von Bletilla striata (mit und ohne Ligatur) im Vergleich zur TACE ohne Bletilla striata als Therapie des hepatozellulären Karzinoms HCC im tierexperimentellen Modell an der ACI-Ratte. Material und Methoden: Insgesamt wurden 30 ACI-Ratten in drei Gruppen eingeteilt: In Gruppe A (Kontrollgruppe) dienten 10 ACI-Ratten als Kontrolltiere. In Gruppe G und H (Therapiegruppen) wurden jeweils 10 ACI-Ratten als Versuchstiere untersucht. Den Tieren wurde dazu zu Beginn des Versuches ein Tumor implantiert (2mm ³), der aus einem Tier (Spendertumor) außerhal b des eigentlichen Versuches entnommen wurde. Jedem Tier der Therapie- und Kontrollgruppe wurde dieser zwei Kubikmillimeter große Tumor unter die Lebe rkapsel des Lobus sinistra eingepflanzt (Intrahepatische Tumorimplantation, IHTI). Diese Tumorstücke wurden aus dem Spendertumor, der aus Tumorzellen des Morris- Hepatoms 3924A innerhalb von vierzehn Tagen im Spendertier heranwuchs, zugeschnitten. Dreizehn Tage nach der
Tumorimplantation erfolgte eine erste Kernspinuntersuchung (MRT1). Einen Tag später wurde bei den Tieren, durch eine retrograd e Injektion in die A. gastroduodenalis, die
Therapie mit Bletilla striata (BS) begonne n. Es wurde den Ratten mit Sandwichtechnik über einen Zeitraum von 20 Minuten Mitomy cin (0,1 mg) + Lipiodol (0,1 ml) + BS appliziert. In Therapiegruppe G wurde diese Therapie mit und in Gruppe H ohne
Ligatur der A. hepatica propria durchgeführt. In der Kontrollgruppe A wurde die TACE ohne BS und ohne Ligatur angewandt. Es wurden von jedem Tier zwei Kernspinaufnahmen gemacht (MRT 1 und MRT2). Vor der Applikation wurde die erste
(MRT1) und 13 Tage nach der Opera tion wurde eine zweite (MRT 2) der Tiere erstellt. Von jedem Tier wurden anschließend die Kernspinaufnahmen miteinander verglichen und die Volumenzunahmen festgestellt (MRT1 / MRT2 = V1 / V2).
Das Maßgebliche Tumorvolumen vor Applikation (V 1) war in Gruppe G 0,0374 cm 3, in Gruppe H 0,0573 cm 3 und in Kontrollgruppe A 0,0380 cm 3. Nach Applikation (V 2) war das Maßgebliche Tumorvolumen in Gruppe G 0,0355 cm 3 (BS mit Ligatur), in Gruppe H 0,2248 cm 3 (nur BS) und in Kontrollgruppe A 0,3674 cm 3. Das Maßgebliche Verhältnis (V 2 / V 1) war in Gruppe G 1,5324, in Gruppe H 6,2791 und in Kontrollgruppe A 9,1382. Nach Analyse der Daten durch den Dunnett ́s Test (1)(ANOVA), konnte für Therapiegruppe G eine signifikante Eindämmung des Tumorwachstums (P < 0,01) und für Gruppe H keine Eindämmung (P > 0,05) nachgewiesen werden. Nach Student-New man-Keuls Test gab es signifikante Unterschiede zwischen den Gruppen G und A (P < 0,05). Die besten therapeutischen Ergebnisse konnten In Gruppe G erzielt werd en. Keines der Tiere starb während der Implantation bzw. der postoperativen Ph ase, es ließ sich jedoch die Bildung von intrahepatischen Metastasen bei zwei Tieren der Kontrollgruppe feststellen. Schlussfolgerung: Die Effektivität der TACE im tierexperimentellen Modell wird durch die kombinierte Applikation mit Bletilla striata und Ligatur der A.hepaticapropria im Vergleich zur klassischen Anwendung der TACE ohne Modifikation deutlich gesteigert. Bletilla striata ist in der Anwendung für die Chemoembolisation ein wirkungsvolles und verlässliches Embolisat . Es stellt sich nun die Aufgabe, experimentell und klinisch zu verifizieren, in welchem Maße der Einsatz einer Ligatur zum tragen kommt.
Eine Vielzahl an biologischen und medizinischen Studien, die sich mit möglichen Ursachen von Homosexualität beschäftigen, wurden in den letzten 120 Jahren publiziert. Arbeiten aus den Bereichen der Endokrinologie, Morphologie und Genetik werden anhand wissenschaftlicher Kriterien analysiert. Dabei wird gezeigt, dass keine der Arbeiten einer eingehenden Überprüfung standhält. Ein separates Kapitel gibt Auskunft über Homosexualitätsforschung und „Therapieversuche“ an Homosexuellen im nationalsozialistischen Deutschen Reich. Methoden der Erfassung von sexueller Orientierung und Konzepte sowie die Entstehungsgeschichte des Begriffs Homosexualität werden vorgestellt. Weiterhin werden Motive und Risiken biomedizinischer Homosexualitätsforschung diskutiert. Eine Erklärung für das Missverhältnis zwischen der Popularität der publizierten Ergebnisse und ihrer wissenschaftlichen Qualität wird gesucht. Der Autor legt dar, dass mit der erstmaligen Erwähnung der gleichgeschlechtlichen Liebe in der medizinischen Literatur die Kategorie „des Homosexuellen“ als Sammelbegriff für ein amorphes kulturelles Phänomen erst konstruiert wurde. In der unreflektierten Adaptation dieser Kategorie durch die Naturwissenschaften unter der Annahme, sie reflektiere eine biologische Gegebenheit, sieht er das bisherige und zukünftige Scheitern der biomedizinischen Homosexualitätsforschung begründet. Abschließend wird die Frage nach der Berechtigung dieser Disziplin gestellt.
Der zunehmende Emigrantenzustrom bedeutet auch eine Zunahme an fremden Drogen in unseren Breitengraden. Kath, eine Droge, welche mehrheitlich im vorderen Orient verzehrt wird, hat so den Weg zu uns gefunden. Kathkonsumenten mit auffälligem Fahrverhalten werden durch die Polizei gestoppt und es gibt Anfragen der Gerichte an die forensischtoxikologischen Sachverständigen zu dieser Droge, da Kath unter den im § 315, 316 StGB genannten Begriff der „anderen berauschenden Mitteln“ fällt und somit Klärungsbedarf bestand in wie weit Kath als Droge die Fahrtüchtigkeit beeinflusst oder einschränkt. Gerade zum Thema Fahren unter Katheinfluss gab es keine Literatur, so dass eine Pilotstudie konzipiert wurde, um mit Methoden aus dem Bereich des MPU-Verfahrens diese Problematik zu untersuchen. Zur Untersuchung des Einflusses von Kath auf den Menschen wurde eine Pilotstudie mit vier Probanden durchgeführt, diese mussten eine Stunde lang authentisches Kath kauen, danach über einen Tag verteilt verschiedene Tests absolvieren, sich Blut und Vitalparameter untersuchen lassen. Der Untersuchungsablauf erfolgte nach einem festgelegten Schema. Zu den Testsystemen zählte das Wiener Determinationsgerät, der d2-Durchstreichtest, sowie die Befindlichkeitsskala. Es wurde ein routineanalytisches Verfahren etabliert, womit die Alkaloide des Kath mittels Festphasenextraktion und nach Derivatisierung gaschromatographisch-massenspektrometrisch im Blut analysiert wurden, die Quantifizierung erfolgte nach Kalibration mit Referenzsubstanzen. Das Verfahren wurde validiert und es zeigte sich, dass keine Störungen durch Matrixbestandteile auftraten, so dass die Alkaloide eindeutig detektiert werden konnten. Weiterhin wurde eine Stabilitätsstudie durchgeführt, um die Lagerungsbedingungen zu optimieren, insbesondere für das instabile Cathinon. Um authentische Fälle besser interpretieren zu können, erfolgte die pharmakokinetische Auswertung der Alkaloide aus dem Blut der Probanden. Es zeigte sich, dass bei der Konsumform des Kauens mehr als 90% der Alkaloide aus dem Blattmaterial aufgenommen wurden. Bei den Plasmakonzentrationen wurden Norephedrin und Cathin über 54 Stunden im Blutserum nachgewiesen, Cathinon weniger als 12 Stunden. Maximale Plasmakonzentrationen wurden (tmax) im Durchschnitt nach 2,3h (Cathinon) erreicht, 2,6h (Cathin) und 2,8h (Norephedrin). Die pharmakokinetische Auswertung zeigte, dass die Verteilung und Elimination am besten durch ein Zwei-Kompartiment-Modell mit Zweisegmentabsorbation charakterisiert war, wobei im ersten Segment am meisten absorbiert wurde (über 77%), höchstwahrscheinlich über die mucösen Membranen der Mundschleimhaut. Die psychophysischen Leistungstests zeigten im Falle des WD und des d2-Tests eine marginale Zunahme der richtig bearbeiteten Zeichen, wahrscheinlich durch einen Lerneffekt bedingt. Der Befindlichkeitstest zeigte nach über 3 Stunden eine Befindlichkeitsverschlechterung an. Bei den Blutdruck- und Pulsmessungen kam es zu keinen deutlichen Abweichungen. Insgesamt wurden keine eindeutigen psychophysischen Veränderungen festgestellt, was auf die aus ethischen Gründen bei der Pilotstudie verwendete geringe Drogenmenge und die fehlende Kontrollgruppe zurückzuführen sein dürfte. In Ergänzung zur Probandenstudie wurden Befunde an Kathkonsumenten in 39 forensischen Fällen ausgewertet und hinsichtlich der angeblichen Aufnahmemenge der Droge, der Alkaloidkonzentrationen im Blutserum und den Polizei- und Dienstarztaussagen interpretiert. Eine Korrelation zwischen Alkaloidkonzentrationen im Blut und den psychophysischen Defiziten wurde nicht gefunden. Die Auswertung zeigte, dass bei 54% der Betroffenen Reaktionen, die an amphetamininduzierte Zustände erinnern, wie Tremor, Nervosität, vegetative Symptome (Pupillenveränderungen, trockener Mund), Apathie, Beeinträchtigungen beim Stehen und Laufen auftraten. Andererseits wurden bei, laut eigener Angaben, chronischem Kathabusus (35%) häufig keine oder nur geringe Ausfallserscheinungen festgestellt. Aufgrund der hier erhobenen Befunde muss man schlussfolgern, dass sich durch Kath drogeninduzierte Zustände hervorrufen lassen, die allerdings in der Probandenstudie aufgrund des Studiendesigns nicht produziert werden konnten. Die bei authentischen Konsumenten beobachteten erheblichen Ausfälle in der Leistungsfähigkeit belegen eindeutig, dass Kath als „berauschendes Mittel“ klassifiziert werden muss. Bei den Kath-Konsumenten handelte es sich ausnahmslos um Personen mit Emigrationshintergrund, welche Kath gewohnheitsgemäß chronisch anwenden und bei denen die Einsicht fehlt, auf diese Droge zu verzichten. Für die Widerherstellung der Fahreignung ist daher bei nachgewiesenem Kathabusus in Verbindung mit Verkehrsdelikten eine strenge Abstinenz gemäß den Leitlinien zur Fahreignungsbegutachtung zu fordern. Die Erkenntnisse dieser Arbeit wurden unter anderem für ein Gutachten für den Bundesgerichtshof zur Bestimmung der „nicht geringen Menge“ für Cathinon herangezogen und im Urteil vom 28.Oktober 2004 (BGH, Urteil vom 28.10.04-4 StR 59/04- LG Münster) gewürdigt.
Erhöhte Faktorenaktivitäten der Gerinnungsfaktoren VIII und IX standen seit längerer Zeit in dem Verdacht, unabhängige thrombophile Risikofaktoren darzustellen. Die Studienlage hierzu ist bzgl. der Wahl der untersuchten Kollektive, der Messmethoden, sowie der berücksichtigten Einflussgrößen uneinheitlich. Daher wurde die vorliegende Studie durchgeführt, um zum einen in einem Normalkollektiv die die Faktorenaktivität möglicherweise beeinflussenden Störgrössen wie Body Mass Index (BMI) oder ein steigendes Lebensalter zu definieren, und um andererseits die Häufigkeit erhöhter Faktor VIII und IX Aktivitäten bei Patienten mit venösen Thrombosen unter Berücksichtigung dieser Störgrössen im Vergleich zum Normalkollektiv exakt zu analysieren. Es wurden 500 Blutspender konsekutiv als Normalkollektiv eingeschlossen. Diesem wurde ein Patientenkollektiv von 374 konsekutiven Patienten mit venösen Thrombosen gegenübergestellt. Beide Kollektive wurden an Hand eines einheitlichen, standardisierten Fragebogens bezüglich ihrer Eigen- und Familienanamnese befragt. Darüber hinaus erfolgte eine Blutentnahme unter standardisierten Bedingungen. Als Messmethode für die Faktorenaktivität von Faktor VIII und IX wurde ein Einstufengerinnungstest verwendet, hierbei wird die Aktivität eines einzelnen Gerinnungsfaktors gemessen. Alle zu untersuchenden Plasmen wurden auf Lupusantikoagulantien getestet, um Probanden und Patienten mit positiven Lupusantikoagulantien von den weiteren Berechnungen ausschließen zu können, da Lupusantikoagulantien die Faktorenmessergebnisse verfälschen können. Dies wurde in den bisherigen Veröffentlichungen nicht berücksichtigt. Mit Hilfe des Normalkollektives wurde die 90% Perzentile als Cut Off für erhöhte Faktorenwerte definiert (FVIII = 158%; FIX = 151%). Bei Analyse des Faktors VIII konnten mit Hilfe einer linearen Regressionsanalyse folgende Störgrössen als relevant für die Faktorenaktivität innerhalb des Normalkollektives beschrieben werden: Raucher wiesen signifikant niedrigere Faktor VIII – Aktivitäten als Nichtraucher auf, während ein steigender BMI und ein steigendes Lebensalter zu signifikant höheren Faktor VIII -Aktivitäten führten. Ein Einfluss des Geschlechtes, sowie ein signifikanter Einfluss oraler Kontrazeptiva auf die Faktor VIII - Aktivitäten konnte nicht nachgewiesen werden. Die Aktivitäten des Faktor IX zeigten im Normalkollektiv ebenfalls eine Abhängigkeit von steigendem Lebensalter, höheren BMI Werten sowie im Gegensatz zur Faktor VIII – Aktivität auch von der Einnahme oraler Kontrazeptiva, wobei alle diese Zustände zu signifikant höheren Faktor IX Aktivitäten führten. Ein Vergleich der Höhe der Faktor VIII – Aktivitäten der Patienten mit venösen Thrombosen zum Normalkollektiv konnte leider nicht durchgeführt werden, da festgestellt wurde, dass eine unterschiedlich lange Lagerzeit der tiefgefrorenen Plasmaproben der Patienten zu einem Absinken von erhöhten Faktor VIII – Aktivitäten führen kann. Dies wurde in der Literatur bisher nicht beschrieben und war daher zu Beginn der Studie nicht bekannt. Im Gegensatz hierzu blieben die erhöht gemessenen Faktor IX – Aktivitäten auch nach einer längeren Lagerzeit stabil, so dass hier eine Risikoberechnung für erhöhte Faktor IX – Aktivitäten in Bezug auf das Auftreten venöser Thrombosen mit einer korrigierten Odds – Ratio erfolgen konnte. Die für BMI, Alter und Geschlecht korrigierte Odds Ratio betrugt 3,98 mit einem 95% Konfidenzintervall von 2,5 – 6,3. Es ist somit von einem ca. 4 fach erhöhten relativen Risiko für venöse Thrombosen bei erhöhten Faktor IX – Aktivitäten auszugehen, so dass diese einen neuen thrombophilen Risikofaktor für venöse Thrombosen darstellen.
Die Tracheotomie langzeitbeatmeter Patienten hat sich als integraler Bestandteil der modernen Intensivtherapie etabliert. Die von Ciaglia et al. 1985 beschriebene perkutane Dilatationstracheotomie (PDT) erwies sich als sichere, komplikationsarme und wenig zeitaufwendige Alternative zum konventionellen, offenen Vorgehen. Ausgehend von der PDT wurden bis 2001 drei weitere perkutane Tracheotomietechniken im klinischen Alltag verwendet: 1990 die von Griggs vorgestellte Guide- Wire- Dilating- Forceps Technik (GWDF), 1997 die translaryngeale, retrograde Technik nach Fantoni (TLT) und 1999 die modifizierte single-step Technik nach Ciaglia mittels des speziellen Blue Rhino®– Dilatators (CBR). Ziel der vorliegenden klinischen Untersuchung war es, ob eine Lernkurve für die vier Verfahren besteht und sie hinsichtlich ihrer Komplikationen und Praktikabilität zu vergleichen. Bei insgesamt 200 Intensivpatienten wurde unter Beachtung der absoluten Kontraindikationen bettseitig eine elektive perkutane Tracheotomie unter fiberoptischer Kontrolle durchgeführt. Jede der vier Methoden (PDT, GWDF, TLT, CBR) kam bei jeweils 50 Patienten, die chronologisch in zwei Kohorten (Gruppe A: Patienten 1-25, Gruppe B: Patienten 26-50) aufgeteilt wurden, zur Anwendung. Erfasst wurden die Dauer des Eingriffs und alle perioperativen Komplikationen, beginnend unmittelbar vor dem Eingriff bis 48 Stunden danach. Die Komplikationen wurden zunächst den Kategorien intraoperativ und postoperativ zugeteilt, dann wiederum unterschieden in medizinische und technische und in die drei Schweregrade leicht, mittel und schwer eingeordnet. Alle Verfahren waren schnell durchführbar. Bezogen auf das Gesamtkollektiv erwies sich die CBR als schnellste durchführbare Methode, gefolgt von der GWDF, der PDT und der TLT. Die Eingriffsdauer verkürzte sich bei allen Methoden außer bei der CBR in der zweiten Kohorte im Vergleich zu ersten. Bei den 200 perkutanen Tracheotomien traten insgesamt 3 schwere Komplikationen auf (1,5%), alle medizinischer Natur, 13 mittelschwere Komplikationen (7,5%), etwa zur Hälfte technisch und zur Hälfte medizinisch, und 38 leichte Komplikationen (19%), auch in etwa zur Hälfte technisch und medizinisch. Kohortenabhängig ergab sich bei allen Verfahren bis auf die PDT ein Rückgang der Gesamtkomplikationen in den Gruppen B im Vergleich zu den Gruppen A. Aufgeschlüsselt nach medizinisch und technisch ging der Anteil der technischen Komplikationen im Vergleich zu dem Anteil der medizinischen Komplikationen stärker zurück. Als Schlußfolgerung ergibt sich, daß alle vier Methoden der perkutanen Tracheotomie schnell durchführbar sind und eine niedrige Komplikationsrate aufweisen. Die seltenen schweren Komplikationen sind offenbar nicht durch Übung und zunehmendes Beherrschen der Technik vermeidbar. Legt man als Kriterium für die Erlernbarkeit einer Tracheotomiemethode die Komplikationsrate und die Dauer des Eingriffs zugrunde, so legt diese Untersuchung nahe, dass jeweils für alle vier untersuchten Verfahren der perkutanen Tracheotomie eine Lernkurve existiert.
Es ist seit ein paar Jahren bekannt, dass es bei amblyopen Patienten neben Vi-susverlusten, einer exzentrischen oder unruhigen Fixation und einer ganzen Reihe weiterer Phänomene, zu einer gestörten Lokalisation (Verzerrung und Unsicher-heit) im amblyopen Auge kommt. Lokalisationsstörungen behindern die visuelle Wahrnehmung und die Visuomotorik der Betroffenen. Darüber hinaus gibt ihr ge-naues Studium Informationen über die Ausprägung der Amblyopie und erlaubt Überlegungen zur Amblyopieentstehung. Die Forschungseinheit „Sehstörungen des Kindesalters“ an der Augenklinik der Universität Frankfurt am Main, in der die-se Doktorarbeit durchgeführt wird, beschäftigt sich u. a. mit der visuellen Lokalisa-tion bei Kindern. Mit einer für diesen Zweck entwickelten Methode [Fronius et al. 1995] wird die visuelle Lokalisation bei normalsichtigen und amblyopen Kindern erfasst [Fronius et al. 2000, 2004]. Ziel dieser Arbeit ist die Ergänzung der vorhandenen Daten und die Auswertung nach neuen Gesichtspunkten. Die Studie untersucht Lokalisationsstörungen im Führungsauge und befasst sich erstmalig damit, ob und inwiefern solche Lokalisa-tionsstörungen auch bei der binokularen Lokalisation vorkommen. Sie präsentiert die Ergebnisse, die schielamblyope (n=32) sowie normalsichtige Kinder (n=35) im Alter von 4,5 bis 10 Jahren bei der vertikalen relativen Lokalisation monokular und binokular erzielen. Verwendet wird die durch Fronius und Mitarbeiter 1995 entwor-fene –aktive– Testmethode, die aus einer Kombination von zwei früheren Testver-fahren für Erwachsene [Bedell & Flom 1981, Fronius & Sireteanu 1989] hervorge-gangen ist. Darüber hinaus wird analysiert, inwieweit der Visus, Faktoren aus der klinischen Geschichte (Zeitpunkt der Brillenverordnung, Vorbehandlung durch Okklusionstherapie) und Begleitphänomene wie ein latenter Nystagmus eine Rolle spielen. Dabei ergibt sich, dass die Führungsaugen der hier untersuchten amblyopen Kin-der eine ähnlich genaue relative vertikale Lokalisation zeigen wie die normalsichti-ge Kontrollgruppe. Dagegen ist der Visus in den Führungsaugen signifikant niedri-ger als der der Kontrollkinder (Einzeloptotypenvisus: p=0,0007, Reihenvisus: p=0,005). Die Führungsaugen sind demnach keine „normalen“ Augen, was den Visus betrifft, zeigen jedoch keine messbar gestörte Positionswahrnehmung. Möglicherweise handelt es sich hier um zwei von einander unabhängige Phänomene – Lokalisationsstörungen und Visusminderung – , die im amblyopen Sehsystem an-zutreffen sind. Eventuell spielen aber auch die verwendete Testmethode und das junge Alter der Probanden eine Rolle. Laut Krieter [2000] machen Kinder in die-sem Test signifikant größere Fehler als Erwachsene, was das Herausstellen von eventuell vorhandenen Effekten erschweren könnte. Der Vergleich der monokularen und der binokularen Lokalisation ergibt unter den vorhandenen Untersuchungsbedingungen bei der normalsichtigen Kontrollgruppe keine signifikanten Unterschiede. Ein binokularer Summationseffekt liegt nicht vor. Auch bei den Schielamblyopen entspricht die monokulare der binokularen Lokali-sationsgenauigkeit. Allerdings ist die binokulare Lokalisation bei den Amblyopen wesentlich ungenauer als bei der Kontrollgruppe, die Unsicherheit ist bei ihnen signifikant (p=0,009) und die Verzerrung tendenziell (p=0,07) größer. Es werden also bei Mitgebrauch des amblyopen Auges, binokular, Unterschiede zwischen den amblyopen Kindern und der Kontrollgruppe deutlich. Dies spricht für eine leichte Störung durch das amblyope Auge bei der binokularen Lokalisation. Ein Vorteil ergibt sich nach den Ergebnissen dieser Arbeit für die Kinder mit Okklusionstherapie in der Vorgeschichte (n=7) betrachtet man den Visus im amblyopen und im Führungsauge. Ein Einfluss der Okklusionstherapie auf die Lo-kalisation stellt sich nicht heraus. Der Zeitpunkt der Brillenverordnung (Brille vor dem 2. Lebensjahr: n=10, Brille nach dem 2. Lebensjahr: n=20) beeinflusst nach unseren Ergebnissen weder den Visus noch die Lokalisationsergebnisse der un-tersuchten Kinder. Diese Arbeit erweitert das Wissen über die Leistungen von schielamblyopen und normalsichtigen Kindern bei Lokalisationsaufgaben und zeigt erstmals Daten der binokularen Lokalisation.
Einleitung: In der vorliegenden Studie wurde die laparoskopisch durchgeführte Thermoinzision der Ovarialoberfläche, eine operative Behandlungsmöglichkeit des polyzystischen Ovarsyndroms (PCOS), im Hinblick auf die Auswirkungen auf Zyklustempus und Fertilität untersucht.
Material und Methode: Zwischen März 1999 und April 2002 unterzogen sich 55 PCOS-Patientinnen, mittleres Alter 30,4 Jahre, im Zentrum für Frauenheilkunde und Geburtshilfe der Universitätsklinik Frankfurt am Main und in der Abteilung für gynäkologische Endokrinologie und Fertilitätschirurgie im Bürgerhospital Frankfurt am Main einer Thermoinzision der Ovarialoberfläche. Alle Patientinnen litten an unerfülltem Kinderwunsch, 20 von ihnen hatten zusätzlich einen unregelmäßigen Menstruationszyklus, 7 gaben eine vermehrte Behaarung. 16 Patientinnen hatten sowohl einen unregelmäßigen Menstruationszyklus als auch Hirsutismus. 37 Patientinnen hatten bereits vor der Operation frustrane Hormonbehandlungen hinter sich. Bei 18 Patientinnen wurde die Thermoinzision der Ovarialoberfläche als primärer Therapieansatz im Rahmen einer Laparoskopie zur Sterilitätsdiagnostik gewählt. Die Nachbeobachtung fand durch schriftliche Befragung und das Einsehen der Krankenblätter und der Operationsberichte statt. Der Fragebogen umfasste im Wesentlichen drei Punkte: 1) Die allgemeine Zufriedenheit mit der Behandlung 2) Den Behandlungserfolg zum Zeitpunkt der Befragung im Vergleich zu vor der Operation (Schwangerschaften, Zyklusregelmäßigkeit, Hirsutismus) 3) Die zusätzlich zur Thermoinzision der Ovarien in Anspruch genommenen Behandlungen (z.B. Medikamente) Die mittlere Nachbeobachtungszeit betrug 31 Monate.
Ergebnisse: Die Schwangerschaftsrate nach durchgeführter Thermoinzision betrug in dieser Studie 51%. Davon traten 90% innerhalb des ersten postoperativen Jahres auf. Der Anteil der Patientinnen mit regelmäßigem Zyklus stieg von 35% auf 58%. Damit war der Einfluss der Thermoinzision auf den Menstruationszyklus signifikant Bei 39% kam es zur Verbesserung des Hirsutismus. Die Abortrate nach Thermoinzision lag in dieser Studie bei 21%. Insgesamt waren 85% der operierten Patientinnen zufrieden bis sehr zufrieden mit dieser Behandlungsmethode. In der Gruppe der Patientinnen mit Nikotinkonsum sind 36% schwanger geworden, im Gegensatz zur Nichtrauchergruppe mit einer Schwangerschaftsrate von 57%. Zwischen Body Mass Index und postoperativer Zyklusregelmäßigkeit / Schwangerschaftsrate, sowie zwischen Alter und postoperativer Zyklusregelmäßigkeit / Schwangerschaftsrate bestand kein Zusammenhang.
Diskussion und Schlussfolgerung: Die Thermoinzision der Ovarialoberfläche ist eine effektive Methode zur Behandlung von Zyklusunregelmäßigkeiten und Sterilität bei PCOS-Patientinnen. Zudem zeigt sie auch Erfolg in der Behandlung des Hirsutismus bei diesen Patientinnen. Da es sich um einen operativen Therapieansatz handelt, sollte die Thermoinzision als Therapie der zweiten Wahl, nach versuchter medikamentöser Therapie, eingesetzt werden.