Refine
Year of publication
- 2006 (295) (remove)
Document Type
- Doctoral Thesis (295) (remove)
Has Fulltext
- yes (295)
Is part of the Bibliography
- no (295)
Keywords
- Apoptosis (4)
- Cytochromoxidase (4)
- Elektronentransfer (3)
- 5-Lipoxygenase (2)
- Biochemie (2)
- Electron transfer (2)
- Elektronenmikroskopie (2)
- Elektronenspinresonanzspektroskopie (2)
- Entzündung (2)
- Geographie (2)
Institute
- Medizin (113)
- Biochemie und Chemie (52)
- Biowissenschaften (36)
- Pharmazie (29)
- Physik (17)
- Wirtschaftswissenschaften (7)
- Gesellschaftswissenschaften (6)
- Neuere Philologien (5)
- Informatik (4)
- Erziehungswissenschaften (3)
Für die geplanten Untersuchungen wurde eine eigene Methode für die Kultur primärer humaner Bronchialepithelzellen etabliert. Die Bronchialepithelzellen wurden aus Lungenteilresektaten durch eine cytologische Bürstung gewonnen. Die verwendeten Kulturschalen wurden mit Kollagen beschichtet. Als serumfreie Kulturmedien wurden ein Expansionsmedium und ein Differenzierungsmedium verwendet. Dabei enthielt das Expansionsmedium proliferationsfördernde Supplemente, was zu einer deutlich gesteigerten Zellausbeute gegenüber der Verwendung handelsüblicher Medien führte. Im Differenzierungsmedium wurden Supplemente verwendet, die für die Differenzierung und Ziliogenese bronchialer Epithelzellen erforderlich sind. Die Kultur erfolgte an einer Luft-Medium-Grenzfläche, die für Bronchialepithelzellen eine physiologische Umgebung darstellt. Die Charakterisierung der Kulturen zeigte keine Verunreinigungen mit Fibroblasten, Muskelzellen oder Zellen mesenchymalen Ursprungs. Das charakteristische kopfsteinplasterartige Erscheinungsbild, sowie der immunhistochemische Nachweis von Cytokeratin 18 belegten den bronchoepithelialen Charakter der Kulturen. In der vorliegenden Arbeit wurde mit der RT-kompetitive Multiplex-PCR (RCMP) eine Technik entwickelt, mit deren Hilfe die Expression von Genen in niedriger Kopienzahl oder aber in Proben mit geringer RNA-Menge nachgewiesen werden kann. Geringe Ausgangsmengen an RNA wiesen vor allem die Primärkulturen von humanem Bronchialepithel, als auch frische Gewebebürstungen des Bronchial- und Nasenepithels auf. Die RCMP basiert auf einer kompetitiven PCR und kombiniert eine exogen interne und endogen interne Standardisierung. Damit wurde die mRNA-Expression von bis zu vier Genen in einem Ansatz analysiert. Die RCMP löst dabei mehrere Probleme herkömmlicher PCR-Verfahren: 1. mRNAs mit hoher oder niedriger Kopienzahl können in einem Ansatz koamplifiziert werden. 2. Die semiquantitative Quantifizierung ist unabhängig von den Syntheseeffizienzen von Target und Referenzgenen. 3. Die RCMP kontrolliert Schwankungen der initialen RNA-Menge. 4. Die Unabhängigkeit der RCMP von der Kenntnis der initialen RNA Menge erlaubt auch die Bestimmung von Probenmaterial in dem nur geringe mRNA-Mengen vorhanden sind. Damit eignet sich die RCMP besonders für Expressionsstudien Materialien wie Bioptaten, Nasal- oder Bronchialbürstungen, sowie den Kulturen primärer Bronchialepithelzellen. Mit Hilfe der RCMP wurden erstmals die mRNA der Osmolyttransporter BGT-1, SMIT und TAUT in Bronchialepithelzellen nachgewiesen. Nach Behandlung mit hyperosmotischen Medien wurde die mRNA-Expression dieser Transporter stark induziert. Bronchialepithelzellen perzeptieren osmotische Belastungen und versuchen, ihnen entgegenzuwirken. Hyperosmotische Belastungen können in Bronchialepithelien zu einer Inflammation ohne zugrunde liegende Infektion führen. Dabei wird zeit- und dosisabhängig sowohl die Sekretion als auch die Expression von IL-8 induziert. An dieser Induktion ist die p38 MAP-Kinase beteiligt. Reaktive Sauerstoffspezies (ROS) sind sowohl an der Induktion der IL-8 Sekretion und Expression beteiligt, als auch an der Aktivierung der p38 MAPKinase. Weiterhin zeigte sich, dass die Induktion der Sekretion von IL-6 und IL-8 abhängig von osmotisch bedingten Änderungen des Zellvolumens ist. Auch hier wird bereits die p38 MAP-Kinase durch das Zellvolumen reguliert. Die Ergebnisse legen ein mögliches Modell für die initialen Vorgänge in der CF-Lunge nahe. Die Veränderungen des Ionenhaushalts bei der cystischen Fibrose, sowie die eingeschränkte Zellvolumenkontrolle bei CF-Zelllinien, weisen darauf hin, dass ein defektes CFTR-Protein zu einer von neutrophilen Granulozyten dominierten Inflammation führen kann, ohne das die Lunge bereits mit Erregern besiedelt wurde.
Previous studies suggest that the application of Controlled Language (CL) rules can significantly improve the readability, consistency, and machine-translatability of source text. One of the justifications for the application of CL rules is that they can have a similar impact on several target languages by reducing the post-editing effort required to bring Machine Translation (Ml’) output to acceptable quality. In certain situations, however, post-editing services may not always be a viable solution. Web-based information is often expected to be made available in real-time to ensure that its access is not restricted to certain users based on their locale. Uncertainties remain with regard to the actual usefulness of MT output for such users, as no empirical study has examined the impact of CL rules on the usefulness, comprehensibility, and acceptability of MT technical documents from a Web user's perspective. In this study, a two-phase approach is used to determine whether Controlled English rules can have a significant impact on these three variables. First, individual CL rules are evaluated within an experimental environment, which is loosely based on a test suite.Two documents are then published and subject to a randomised evaluation within the framework of an online experiment using a customer satisfaction questionnaire. The findings indicate that a limited number of CL rules have a similar impact on the comprehensibility of French and German output at the segment level. The results of the online experiment show that the application of certain CL rules has the potential to significantly improve the comprehensibility of German MT technical documentation. Our findings also show that the introduction of CL rules did not lead to any significant improvement of the comprehensibility, usefulness, and acceptability of French MT technical documentation.
Through an examination of Joseph Roth’s reportage and fiction published between 1923 and 1932, this thesis seeks to provide a systematic analysis of a particular aspect of the author’s literary style, namely his use of sharply focused visual representations, which are termed Heuristic Visuals. Close textual analysis, supplemented by insights from reader-response theory, psychology, psycholinguistics and sociology illuminate the function of these visual representations. The thesis also seeks to discover whether there are significant differences and correspondences in the use of visual representations between the reportage and fiction genres. Roth believed that writers should be engagiert, and that the truth could only be arrived at through close observation of reality, not subordinated to theory. The research analyses the techniques by which Roth challenges his readers and encourages them to discover the truth for themselves. Three basic variants of Heuristic Visuals are identified, and their use in different contexts, including that of dialectical presentations, is explored. There is evidence of the use of different variants of Heuristic Visuals according to the respective rhetorical demands of particular thematic issues. It has also been possible to establish synchronic correspondences between the different genres, and diachronic correspondences within genres. Although there are examples within the reportage where the entire article is based on an Heuristic Visual, the use of Heuristic Visuals cannot be seen as a key organizing principle in Roth’s work as a whole. As his mastery of the technique reaches its highest point in the early 1930s, Heuristic Visuals are often incorporated into the reconstruction of a complete sensory experience. Analysis of Roth’s heuristic use of visual representations has led to important insights, including a reinterpretation of the endings of Roth’s two most famous novels: Hiob and Radetzkymarsch.
Bei Patienten mit koronarer Herzkrankheit (KHK) wird angenommen, dass es aufgrund der Apoptose von Endothelzellen zu einer Störung des endothelialen Zusammenhaltes kommt, was ein Fortschreiten der Atherosklerose zur Folge hat. Unter normalen Bedingungen bewirkt eine Gefäßwandverletzung eine Mobilisierung von im Knochenmark befindlichen endothelialen Progenitorzellen, was möglicherweise zur Reendothelisation der verletzten Gefäßwand beiträgt. Personen mit kardiovaskulären Risikofaktoren und einer manifesten KHK jedoch haben eine niedrigere Anzahl zirkulierender EPCs. Aus diesem Grund untersuchten wir bei Patienten mit stabiler KHK und mit ACS das Gleichgewicht zwischen zirkulierenden EPC und zirkulierenden apoptotischen maturen endothelialen Zellen (CAEC), und beobachteten, ob Statine ECs bei Patienten mit KHK vor der Apoptose schützen.
Die Bestimmung der EPCs erfolgte mit Hilfe der Durchflusszytometrie (FACS) durch die Inkubation mit CD133 und KOR. Es zeigte sich, dass Patienten mit einem AMI im Vergleich zur Kontrollgruppe die niedrigsten Werte an zirkulierenden EPCs aufwiesen (ca. 3,5fach niedriger), gefolgt von Patienten mit instabiler und stabiler KHK. Die Anzahl zirkulierender ECs hingegen (CD45-negativ, CD146-positiv und vWF-positiv) war bei Patienten mit AMI im Vergleich zur Kontrollgruppe um das 5fache erhöht (P < 0,01).
Um die Anzahl an CAEC zu bestimmen, ermittelten wir mittels einer 4-Kanal-Durchflusszytometrie die Annexin V-positiven Zellen aus CD45-negativen, CD146- positiven und vWF-positiven zirkulierenden Zellen aus peripheren Blutproben von Patienten mit KHK.
Wir konnten zeigen, dass diese Zellen bei Patienten mit AMI im Vergleich zu einem gesunden alters- und geschlechtskompatiblen Probandenkollektiv um das 10fache erhöht waren. (P < 0,05)
Um ein Maß für die veränderte Balance verschiedener Endothelzellen zu erhalten, ermittelten wir einen "Schädigungsindex" (Quotient aus CAEC und EPC), der bei Patienten mit stabiler KHK bereits ein relatives Überwiegen der Apoptose bei unzureichend erniedrigten EPCs anzeigte und bei Patienten mit AMI die ungünstigste Konstellation mit einem um das 30fache erhöhten Index ergab.
Da kardiovaskuläre Risikofaktoren bekanntermaßen die Atheroskleroseentstehung begünstigen, untersuchten wir, ob sie auch Einfluss auf die Anzahl zirkulierender CD133- positiver EPCs haben. In einer multivariaten Analyse blieben die Krankheitsaktivität der KHK und eine positive Familienanamnese als unabhängige signifikante Prädiktoren einer reduzierten Anzahl zirkulierender CD133-positiver EPCs bestehen.
Um die Herkunft der ECs zu bestimmen, wurden selektiv Blutproben aus der Aortenwurzel und der V.cordis mag na untersucht. Patienten mit ACS wiesen einen transkoronaren Anstieg der CAEC um 35% in der V.cordis magna verglichen mit der Aorta auf. Ebenso war bei Patienten mit ACS der "Schädigungsindex" in der V.cordis magna signifikant höher als in der Aorta.
Hydroxymethyl- Glutaryl- Goenzym-A-Reduktasenhibitoren (Statine) senken die kardiovaskuläre Ereignisrate sowohl in der Primär- als auch in der Sekundärprävention kardiovaskulärer Erkrankungen.
Eine retrospektive Studie mit n = 34 Patienten mit KHK zeigte, dass die Anzahl an CAEC bei Patienten ohne Statin signifikant niedriger war als bei den Patienten, die ein Statin bekommen hatten (mittlere Dosis 20mg per os). Zudem zeigte sich bei der Berechnung des Schädigungsindex, dass die Statintherapie eine Abnahme des Quotienten um das 15- fache bewirkte. Um dieses Ergebnis zu bestätigen maßen wir in einer prospektiven Studie die CAEC-Level bei n = 9 Patienten mit KHK vor und nach einer 4- wöchigen Behandlung mit Atorvastatin. Die Behandlung mit Atorvastatin führte zu einer signifikanten Abnahme sowohl der CAEC- Level als auch der prozentualen Apoptoserate.
Zusammenfassend zeigt diese Arbeit, dass bei Patienten mit akuter KHK das Gleichgewicht zwischen EPG und apoptotischen maturen Endothelzellen gestört ist und dass eine Statintherapie das Gleichgewicht zwischen Endothelzellverletzung und vaskulären Reparaturmechanismen in Richtung einer Erhaltung des endothelialen Zusammenhaltes beeinflusst.
Einleitung: Die Arbeit stellt den in der Medientheorie bezüglich neuer Kommunikationsmedien und virtuellen Arbeitsmöglichkeiten im Internet vorherrschenden Mythen die empirischen Befunde der Untersuchung einer medial unterstützten, interdisziplinär und räumlich verteilt praktizierten Forschungskooperation gegenüber. Damit betritt sie Neuland, da der Einsatz neuer Kommunikationstechnologien bisher vor allem im Rahmen organisationssoziologischer Studien im Bereich der Wirtschaft, im Bereich des E-Learnings oder für nicht-wissenschaftliche Nutzergruppen im öffentlich zugänglichen Internet analysiert worden sind. Die Studie offenbart dabei die Wirkmächtigkeit lokal gegebener Bezüge und Relevanzen, welche die immer wieder betonten medial gegebenen Freiheiten eines raumund zeitunabhängigen, global angelegten Agierens weitgehend demontieren. Virtualisierte Kooperationsszenarien und Globalität verkörpern dabei den Mythos der medialen Freiheit, das Lokale dagegen holt diese ideal gedachten Visionen auf den Boden der empirischen Tatsachen mit seinen im soziokulturellen Feld „Wissenschaft“ eingebundenen Akteuren zurück. Dieses Ergebnis birgt wissenschaftspolitischen Sprengstoff, denn extensive Mediennutzung und Interdisziplinarität gelten als zentrales Gebot der Zeit und werden als unumgänglich angesehen – können aber im System Wissenschaft mitunter nicht durchsetzbar sein. Die Studie zeigt, dass die in der Medientheorie und Populärmedien verkündeten Möglichkeiten des universellen Einsatzes von neuen Kommunikations- und Medientechnologien für die sozial- und kulturwissenschaftlichen Forschung relativiert werden müssen: Medien werden schwerpunktmäßig als Fortsetzung traditioneller Arbeitsmethoden, dann jedoch durchaus auch sehr effektiv eingesetzt. Ausgangspunkt der empirischen Erhebung ist die medienphilosophisch gestützte Hypothese, dass sich im Feld der Wissenschaft die in digitalen Medien angelegten Möglichkeiten optimal entfalten können und so gegebene Potenziale in greifbare Nähe rücken, etwa eine neue Dimension von Erkenntnismöglichkeiten durch kollektive Wissensgenese. Die Arbeit befasst sich daher mit Einsatz und Bedeutung computervermittelter Kommunikation in einem interdisziplinär und raumübergreifend etablierten Forschungsverbund, wobei das Hauptaugenmerk auf den praktizierten Modi der medial unterstützten Kooperation liegt. Der Zugang zum Feld erfolgte daher mittels teilnehmender Begleitforschung über einen Zeitraum von zwei Jahren. Die methodische Vorgehensweise ist an einer ethnographischen Forschungsauffassung orientiert und setzt auf eine gegenstandsorientierte Verwendung qualitativer Methoden. Es zeigt sich, dass die erwarteten und aktiv angestrebten positiven Effekte keine selbstständig eintretende Folge der Verfügbarkeit ermöglichender technischer Szenarien sind, die sich etwa in Form vernetzter Computer installieren lassen. Vielmehr bildet die Logik des Feldes Wissenschaft mit seinen darin wirksamen institutionellen Strukturen den maßgeblichen Orientierungsrahmen, an dem die beobachtbare Medienverwendung ausgerichtet wird. So kommt bspw. zum Tragen, dass im Wissenschaftlichen Habitus der Stellenwert einer medialen Präsenz oder technischen Expertise unterbestimmt sind und diese keinen elementaren Bestandteil der üblicherweise praktizierten Forschungstätigkeit bilden. Anstatt einer medial bereicherten Erkenntnisproduktion dominiert so ein pragmatischer Medieneinsatz konzentriert auf das unmittelbar Notwendige. Speziell zugeschnittene digitale Möglichkeitsräume für eine wissenschaftliche Auseinandersetzung (Foren, Wiki, Bild- und Videodatenbank) mit dem gemeinsamen Gegenstand erhalten im untersuchten Feld so den Charakter eines randständigen Schauplatzes und etablieren sich nicht als maßgeblicher Austragungsort der gemeinsamen Diskussion. Unmittelbar aufgabenbezogen einsetzbare Ressourcen dagegen, die bereits in Alltagsroutinen integriert sind wie die E-Mail, haben jedoch ihren festen Stellenwert, etwa in technisch-administrativen Fragen oder im Hinblick auf das laufende Informationsmanagement. In den praktizierten Nutzungsweisen ist somit eine deutliche Dominanz des Schriftlichen im Umgang mit den eingesetzten Informationstechnologien vorherrschend: Für den zeitversetzten medienvermittelten Austausch müssen zur Diskussion stehende Inhalte zunächst in die Textform überführt werden. Phänomene, Themenaspekte oder Materialien, die sich (noch) gegen die Schriftsprache sperren, sind folglich charakterisiert durch „Schweigen“. Schweigen tritt im körperlosen virtuellen Raum und in schriftbasierten Medien jedoch nicht in Erscheinung. Ungeschriebenes ist daher im virtuellen Raum nicht existent und entzieht sich der gemeinsamen, raum- und zeitunabhängigen Bearbeitung. Neue Medien sind als sozial überformte Technologie folglich nicht ausgehend von darüber bereitgestellten Funktionen definierbar. Trotz der Topoi einer digitalen Revolution oder einer Informations- und Wissensgesellschaft, über die das Internet fester Bestandteil der gegenwärtigen materiellen und ideellen Infrastruktur wurde, erhalten die technologischen Artefakte ihre Bedeutung erst in der individuell ausgestalteten Verwendung durch die mit ihr befassten Akteure, wie die Studie über ihren exemplarischen Zugang für den Bereich der sozial- und kulturwissenschaftlichen Forschung zeigt.
In einer retrospektiven Untersuchung von 388 Patienten untersuchten wir, ob eine Therapie mit Statinen (HMG-CoA-Reduktasehemmer) das mit erhöhten CRP-Serumspiegeln verbundene Risiko für kardiale Ereignisse nach koronarer Stentimplantation beeinflussen kann. Die Untersuchung zeigte, dass sich bei Patienten mit erhöhten CRP-Spiegeln ohne eine Statintherapie kardiale Ereignisse signifikant häufiger ereigneten (RR 2.37, 95% CI [1.3-4.2]). Dabei ist von Bedeutung, dass Patienten mit einem erhöhten CRP-Spiegel, die eine Statintherapie erhielten, etwa das gleiche relative Risiko für erneute Ereignisse hatten (RR 1.27[0.7-2.1]) wie Patienten in der Gruppe mit CRP–Spiegeln unter 0.6 mg/dl, die keine Statintherapie erhielten (RR1.1 [0.8-1.3]). Die Resultate dieser Arbeit demonstrieren, dass eine Statintherapie das erhöhte Risiko für kardiovaskuläre Ereignisse bei Patienten mit erhöhtem CRP-Serumspiegel nach koronarer Stentimplantation signifikant vermindern kann. Erhöhte CRP-Spiegel scheinen somit unabhängig von Cholesterinspiegeln ein aussagekräftiger Parameter zu sein, um den Patienten eine Statintherapie zukommen zu lassen, die ein besonders hohes Risiko für koronare Ereignisse nach Stentimplantation haben.
Die Überzeugung, dass der Computer nicht als Werkzeug, sondern als Medium zu denken sei, hat in den zurückliegenden Jahren die Debatte zu einer Medientheorie des Computers wesentlich geprägt. Damit war insbesondere eine bestimmte Auffassung des Technischen verbunden. Die Effekte der technischen Medien lassen sich, so der Gedanke, nicht über die Aktivierung anthropologischer Schemata begreifen, vielmehr müssen die Medien in ihrer Technizität ernst genommen werden. Dies heißt aber nichts anderes, als dass der Technik ein Eigenwert zuzugestehen sei, der sich gerade nicht vom Menschen her konturieren lässt. Hierüber diskreditiere sich dann letztlich eine Rede von den Medien als werkzeughaften Extensionen des Menschen. Demgegenüber soll in dieser Arbeit der Vorschlag unterbreitet werden, den Computer eben doch wieder vom Werkzeug her zu denken. Damit soll jedoch keinesfalls über den erreichten Stand medientheoretischer Positionen hinweggesehen werden. Mit dem Medienbegriff umzugehen bedeutet nicht zuletzt, den epistemischen Status mitzureflektieren, den die Medien inne haben. Sie geben den Rahmen vor, in dem sich die Subjekte äußern können. Die Medien strukturieren diese Äußerungen bereits vorab bzw. ermöglichen überhaupt erst bestimmte Äußerungsformen. Sich hierüber Rechenschaft abzulegen bedeutet aber nicht notwendig, die Metapher einer werkzeughaften Nutzung des hoch technischen neuen Mediums als trügerisch verwerfen zu müssen. Gerade diese Nutzungsweise unterscheidet den Computer vom vorherrschenden Medienparadigma des 20. Jahrhunderts, von Film und Fernsehen und dem daraus abzuleitenden Status des Rezipienten als Rezipienten. Die vorliegende Arbeit betreibt also Werbung für einen produktiven Gebrauch des neuen Mediums, wobei es jedoch nicht darum geht, den Computer als eine Art Befreiung von den "Zwängen" der anderen technischen Medien zu positionieren. Sofern Medien überhaupt -- im strengen Sinne – Zwänge ausüben, so wäre doch nicht einzusehen, warum dies beim Computer anders sein sollte. Dennoch: Dass es so etwas wie eine "Creative Commons" gibt, dass es immer selbstverständlicher wird, wenn Nutzer ihre kreativen Produkte nicht nur mit anderen Nutzern teilen, sondern sie es darüber hinaus ermöglichen, dass auf Basis ihrer Produkte weitergearbeitet werden kann, nährt die Vermutung eines sich ändernden Verhältnisses zwischen den Nutzern und den Medien. Zentrales Ziel dieser Arbeit ist daher zunächst, die sich in der Medienwissenschaft bereits etablierte Perspektive auf den Computer als eines Textmediums zu kritisieren, da hierüber allzu leichtfertig eine bestimmte Nutzungsweise des Computers verabsolutiert werden kann: Einzig der programmierende Zugriff gilt als emanzipativ. Daran anschließend möchte ich nach einer kurzen Diskussion des Medienbegriffes das in der Softwareentwicklung lange Zeit bestimmende Gestaltungskonzept der Werkzeugnutzung für eine neuerliche Verwendung in der Medienwissenschaft vorschlagen. Vorteil ist, dass hiermit auch Nutzerpraxen adäquat einbezogen werden können, die sich auf den "Oberflächen" der Software abspielen. Betrachtet man Medien nicht als bloße Übertragungskanäle und versucht man, die produktive Seite von Medientechnologien in den Blick zu nehmen, dann weist die "Botschaft" des neuen Mediums in die Richtung eines Wechsels vom Rezipienten zum Produzenten. In dieser Perspektive erscheinen die Nutzer nicht mehr nur als Anhängsel der Technik. Sie sind nicht von ihr aus zu bestimmen, ebenso wenig wie die Medientechnik rein vom Menschen her zu bestimmen wäre. Um die These einer werkzeughaften Verwendbarkeit des Computers auszuführen, konzentriert sich die vorliegende Arbeit auf bestimmte Texte, die genauer diskutiert und in die Argumentation integriert werden. Dies erscheint mir fruchtbarer als der Versuch, das gesamte Spektrum der neueren Diskussion um den Computer als Medium aufgreifen und synthetisieren zu wollen. Die Gliederung verläuft dementsprechend weitgehend entlang dieser (theoretischen) Referenzen.
Zielsetzung Die vorliegende Arbeit beschäftigt sich mit der Analyse der Hirndruckpulsamplitude (ICPAmpl.) als neuen Parameter zur Bestimmung einer für den cerebralen Perfusionsdruck optimalen Oberkörperlagerung. Unter normalen klinischen Konditionen bleiben die die ICPAmpl. bestimmenden Faktoren – Compliance und Herzschlagvolumen – konstant. Daher ist es durch die Untersuchung der ICPAmpl. möglich, Rückschlüsse auf den cerebrovaskulären Gefäßwiderstand (CVR) und damit den cerebralen Perfusionsdruck (CPP) zu ziehen. Methoden Bei 40 neurochirurgischen Patienten wurden prospektiv Alter, Geschlecht, Erkrankung, Glasgow-Coma-Scale, Ort der Hirndrucksonde und die Beatmungsparameter untersucht. Die Veränderungen des intrakraniellen Drucks (ICP), des cerebralen Perfusionsdrucks (CPP), des mittleren arteriellen Drucks (MAP) sowie der Hirndruckpulsamplitude (ICPAmpl.) wurden bei Oberkörperlagerungen von 0°, 30°, 60°, 30°, 0° gemessen und analysiert. Ergebnisse Insgesamt 36 Probanden erfüllten die Studienbedingungen (n=36), aufgeteilt in 21 Frauen und 15 Männer. Das mittlere Alter betrug 55,5 Jahre (± 2,58). Der Glasgow-Coma-Scale-Wert betrug bei allen eingeschlossenen Patienten 3. Bei dem Vergleich der Messwerte von 0°- und 60°-Oberkörperlagerung zeigte sich eine signifikante Verbesserung des ICP (p<0,001), eine Zunahme der ICPAmpl. (p<0,001), eine Verschlechterung des CPP (p<0,001) sowie eine Reduktion des MAP (p<0,001). Schlussfolgerung Die aus den gemessenen Daten einer liegenden Hirndrucksonde relativ einfach bestimmbare ICPAmpl. lässt wichtige Rückschlüsse auf den cerebralen Vasomotorentonus zu. Bisher war jedoch unklar, ob es einen Zusammenhang zwischen der ICPAmpl. und dem CPP gibt, der für die klinische Routine einer Intensivstation nutzbar ist. Diese signifikante Beziehung der beiden Parameter konnten wir finden und darstellen. Unter der Kenntnis der negativen Korrelation zwischen ICPAmpl. und CPP und da sich die ICPAmpl. bei erhaltenem Vasomotorentonus der cerebralen Arteriolen im Vergleich zu den anderen Parametern (ICP, CPP, MAP) gegensätzlich verhält, sollte sie bei der für den CPP optimalen Oberkörperlagerung möglichst gering sein. Wir konnten in Gegenüberstellung der einzelnen Messwerte bei Lagerung von 0°, 30°, 60°, 30°, 0° den kleinsten Mittelwert der ICPAmpl. bei jeweils 30° finden. Somit scheint uns unter den gemessenen Positionen diese Oberkörperlagerung ein guter Kompromiss zwischen einerseits hohem CPP bei erhaltener cerebraler Autoregulation und andererseits niedrigerem ICP zu sein. Da wir wissen, dass zur Vermeidung von sekundären Hirnschäden eine Konstanthaltung des cerebralen Blutflusses (CBF) von Bedeutung ist, bedingt dies eine erhaltene cerebrale Autoregulation. Bei erschöpftem cerebralen Vasomotorentonus kann eine Erhöhung des CPP unter anderem eine Hyperämie, ein vasogenes Ödem und damit eine sekundäre ICP-Anhebung – mit allen daraus resultierenden Komplikationen – triggern. Deshalb wird die regelmäßige, patientenspezifische Suche nach der Grenze zwischen adäquatem und nicht mehr adäquatem CPP gefordert. Die Position der Oberkörperlagerung ist ein denkbar einfach durchzuführender, kostenneutraler und trotzdem bedeutsamer Therapieaspekt in der neurochirurgischen Intensivmedizin. Auf der Suche nach der optimalen, patientenspezifischen Lagerung könnte sich daher in der klinischen Routine eine einfache, komplikationsarme Messung etablieren. Da wir zeigen konnten, dass eine zunehmende ICPAmpl. mit einem abnehmenden CPP verknüpft ist, könnte die im Vergleich der einzelnen Werte niedrigste ICPAmpl. somit einen wichtigen Beitrag zur optimalen, individuellen Oberkörperlagerung leisten.
Spontaneous carotid artery dissection-associated medial changes in a selected autopsy population
(2006)
Spontaneous carotid artery dissection (SCAD) is a major cause of stroke in young adults, yet its pathogenesis remains unclear. Hereditary connective tissue diseases, hormonal influences, sympathomimetic drugs or upper respiratory tract infections may predispose to dissection. Mechanical stress or minimal trauma may also act as a trigger. Various lesions of the arterial wall have been described in association with SCAD, but no prospective autopsy study to evaluate the presence of these lesions in normal controls was found. We performed a histologic evaluation of the carotid bifurcation and the aortic arch in an autopsy series to establish a baseline anatomy of the bifurcation and to determine whether similar lesions could be observed. In seven of 54 (12.96%) selected cases we observed isolated changes closely resembling those described for medionecrosis, fibromuscular dysplasia, mucoid degeneration and elastinolysis; and in one case, prior carotid artery dissection and coiling with a patent false lumen. Generally, vascular microanatomy in the carotid bifurcation can be highly variable. Lesions similar to those associated with spontaneous dissection are present in controls and appear non-specific for spontaneous dissection. They can be explained as reactive changes of smooth muscle cells (SMC) and the vascular wall in response to various stressors. Recent advances in vascular physiology are discussed to illustrate the concept of SMC phenotypic modulation. Forensic pathology can provide a large control population for extensive vascular analyses and further the understanding of normal and pathological vascular wall changes to help elucidate spontaneous arterial dissection.
Diese Arbeit beschäftigt sich mit dem Wiederaufbau der Stadt Frankfurt in den Jahren 1945 bis 1965. Die wichtigsten Stationen dieser Nachkriegsjahre werden mit der Architektengemeinschaft Alois Giefer und Hermann Mäckler verknüpft. Giefer und Mäckler haben in dieser Stadt viele Bauaufgaben vom Wohnungsbau über den Kirchenbau bis zum Ausbau des Frankfurter Flughafens übernommen. Mit der erstmaligen Präsentation des Gesamtwerkes dieser Architektengemeinschaft soll das Interesse für die Architekten und darüber hinaus auch für die Frankfurter Nachkriegsmoderne geweckt werden. Dieses Anliegen scheint besonders in der heutigen Zeit notwendig zu sein, da diese Architekturepoche in Frankfurt durch Abriß bedroht ist. ...
Ubiquitylation is a three-step process, which results in the attachment of the small protein ubiquitin (Ub) to lysine residues on a substrate protein. SUMO proteins are ubiquitin (Ub)-related modifiers implicated in the regulation of gene transcription, cell cycle, DNA repair and protein localization. The molecular mechanisms by which the sumoylation of target proteins regulates diverse cellular functions remain poorly understood. During my PhD I isolated and characterized SUMO1 and SUMO2 binding motifs. Using Yeast Two Hybrid system, bioinformatics and NMR spectroscopy we defined a common SUMO-interacting motif (SIM) and map its binding surfaces on SUMO1 and SUMO2. This motif forms a β-strand that could bind in parallel or anti-parallel orientation to the β2-strand of SUMO due to the environment of the hydrophobic core. A negative charge imposed by a stretch of neighboring acidic amino acids and/or phosphorylated serine residues determines its specificity in binding to distinct SUMO paralogues and can modulate the spatial orientation of SUMO-SIM interactions. Mutation of the SUMO interacting motif of TTRAP (TRAFS and TNF receptor associated protein) influences both its localization and dynamic behaviour in living cells. Ubiquitin (Ub)-binding domains (UBDs) are key elements in conveying Ub-based cellular signals. UBD-containing proteins interact with ubiquitylated targets and control numerous biological processes including receptor trafficking, DNA repair, virus budding and gene transcription. They themselves undergo UBD-dependent monoubiquitylation, which promotes intramolecular binding of the UBD to the attached Ub and consequently leads to their functional inhibition. During the second part of my PhD I could show that, in contrast to the established ubiquitylation pathway, the presence of UBDs allows the monoubiquitylation of host protein independently of classical E3 ligases. UBDs of different types including UBA, UIM, UBM, NFZ and UBZ, can directly cooperate with E2 Ub-conjugating enzymes to promote monoubiquitylation of their host proteins. Using FRET technology I verified that the E2 enzyme and the substrate directly interact in cells. Moreover, UBD-containing proteins Stam2 and Sts2 promote self-ubiquitylation and not ubiquitylation of other targets or form polyUb chains from free Ub. Our study revealed a yet unappreciated role of E2 enzymes in ubiquitylation reactions of UBD containing proteins.
Evaluation der Effektivität der kombinierten TACE von Bletilla striata (mit und ohne Ligatur) im Vergleich zur TACE ohne Bletilla striata als Therapie des hepatozellulären Karzinoms HCC im tierexperimentellen Modell an der ACI-Ratte. Material und Methoden: Insgesamt wurden 30 ACI-Ratten in drei Gruppen eingeteilt: In Gruppe A (Kontrollgruppe) dienten 10 ACI-Ratten als Kontrolltiere. In Gruppe G und H (Therapiegruppen) wurden jeweils 10 ACI-Ratten als Versuchstiere untersucht. Den Tieren wurde dazu zu Beginn des Versuches ein Tumor implantiert (2mm ³), der aus einem Tier (Spendertumor) außerhal b des eigentlichen Versuches entnommen wurde. Jedem Tier der Therapie- und Kontrollgruppe wurde dieser zwei Kubikmillimeter große Tumor unter die Lebe rkapsel des Lobus sinistra eingepflanzt (Intrahepatische Tumorimplantation, IHTI). Diese Tumorstücke wurden aus dem Spendertumor, der aus Tumorzellen des Morris- Hepatoms 3924A innerhalb von vierzehn Tagen im Spendertier heranwuchs, zugeschnitten. Dreizehn Tage nach der
Tumorimplantation erfolgte eine erste Kernspinuntersuchung (MRT1). Einen Tag später wurde bei den Tieren, durch eine retrograd e Injektion in die A. gastroduodenalis, die
Therapie mit Bletilla striata (BS) begonne n. Es wurde den Ratten mit Sandwichtechnik über einen Zeitraum von 20 Minuten Mitomy cin (0,1 mg) + Lipiodol (0,1 ml) + BS appliziert. In Therapiegruppe G wurde diese Therapie mit und in Gruppe H ohne
Ligatur der A. hepatica propria durchgeführt. In der Kontrollgruppe A wurde die TACE ohne BS und ohne Ligatur angewandt. Es wurden von jedem Tier zwei Kernspinaufnahmen gemacht (MRT 1 und MRT2). Vor der Applikation wurde die erste
(MRT1) und 13 Tage nach der Opera tion wurde eine zweite (MRT 2) der Tiere erstellt. Von jedem Tier wurden anschließend die Kernspinaufnahmen miteinander verglichen und die Volumenzunahmen festgestellt (MRT1 / MRT2 = V1 / V2).
Das Maßgebliche Tumorvolumen vor Applikation (V 1) war in Gruppe G 0,0374 cm 3, in Gruppe H 0,0573 cm 3 und in Kontrollgruppe A 0,0380 cm 3. Nach Applikation (V 2) war das Maßgebliche Tumorvolumen in Gruppe G 0,0355 cm 3 (BS mit Ligatur), in Gruppe H 0,2248 cm 3 (nur BS) und in Kontrollgruppe A 0,3674 cm 3. Das Maßgebliche Verhältnis (V 2 / V 1) war in Gruppe G 1,5324, in Gruppe H 6,2791 und in Kontrollgruppe A 9,1382. Nach Analyse der Daten durch den Dunnett ́s Test (1)(ANOVA), konnte für Therapiegruppe G eine signifikante Eindämmung des Tumorwachstums (P < 0,01) und für Gruppe H keine Eindämmung (P > 0,05) nachgewiesen werden. Nach Student-New man-Keuls Test gab es signifikante Unterschiede zwischen den Gruppen G und A (P < 0,05). Die besten therapeutischen Ergebnisse konnten In Gruppe G erzielt werd en. Keines der Tiere starb während der Implantation bzw. der postoperativen Ph ase, es ließ sich jedoch die Bildung von intrahepatischen Metastasen bei zwei Tieren der Kontrollgruppe feststellen. Schlussfolgerung: Die Effektivität der TACE im tierexperimentellen Modell wird durch die kombinierte Applikation mit Bletilla striata und Ligatur der A.hepaticapropria im Vergleich zur klassischen Anwendung der TACE ohne Modifikation deutlich gesteigert. Bletilla striata ist in der Anwendung für die Chemoembolisation ein wirkungsvolles und verlässliches Embolisat . Es stellt sich nun die Aufgabe, experimentell und klinisch zu verifizieren, in welchem Maße der Einsatz einer Ligatur zum tragen kommt.
Die Börsenindustrie hat in den vergangenen zwei Jahrzehnten einen signifikanten Wandel durchlaufen - und das nicht nur in Deutschland. Börsen haben schon längst nicht mehr den Charakter vergangener Tage, in denen ihre Mitglieder auf dem Parkett um Aktienpakete und -kurse von inländischen Unternehmen feilschten und an den genossenschaftlich organisierten Handelsplätzen eher eine vertrauliche Clubatmosphäre herrschte. Eine Vielzahl der Börsen hat den Parketthandel abgeschafft, ist selbst an einer Börse gelistet und orientiert sich primär am Shareholder Value und somit an den Interessen einer internationalen Aktionärsbasis. Mittlerweile existieren Börsenplätze, die mehrere Länder umspannen. Der französisch dominierten Euronext kommt hier eine Vorreiterrolle zu. Aber auch andere Börsen, wie die Deutsche Börse und die Schweizer Börse, haben länderübergreifend ihre Derivatehandelsplattformen vereinigt und mit ihrem Jointventure Eurex die umsatzstärkste Derivatebörse der Welt geschaffen. In jüngster Zeit werden nun auch transatlantische Allianzen zwischen amerikanischen und europäischen Börsen angedacht. Sowohl die Strategie der Nasdaq, die bisher eine Sperrminorität von über 25% an der Londoner Börse hält, als auch die der New York Stock Exchange, die eine Fusion mit der Euronext anstrebt, belegen dies. Zudem stehen Börsen mittlerweile in direktem Wettbewerb mit ihren Kunden und ehemaligen Eigentümern, den Finanzintermediären wie Banken und Wertpapierhäuser. Sie konkurrieren um Wertpapieraufträge von Investoren, da Banken nicht mehr jede Order automatisch an sie weiterleiten. Stattdessen versuchen manche Finanzintermediäre, die erhaltenen Investorenaufträge im eigenen Haus mit einer entsprechenden reziproken Order zusammenzuführen, um somit die Geld-Brief Spanne des Wertpapiers als Gewinn einzubehalten. Diese Internalisierung von Auftragsausführungen ist seit einigen Jahren insbesondere in England und Deutschland eine bedeutende Einkommensquelle für Wertpapierhäuser geworden. Gleichzeitig stoßen Börsen immer stärker in Geschäftsbereiche vor, die bislang die Domäne ihrer Kunden repräsentierten. Hier sei der Handel von bestimmten Kreditderivateprodukten genannt, die bisher außerbörslich zwischen großen Wertpapierhäusern gehandelt wurden. Sowohl die Chicago Mercantile Exchange als auch die Eurex planen den Handel dieser Titel auf ihren eigenen Plattformen. Ein weiteres Beispiel ist die vertikale Integration von Wertpapierabwicklungs- und Wertpapierverwahrungsgeschäften. Große internationale Banken wie BNP Paribas, Citigroup und State Street kämpfen hier gegen Börsen um Marktanteile. Wie kam es zu dem hier beschriebenen Wandel? Der entscheidende Katalysator ist der gestiegene Wettbewerbsdruck auf traditionelle Börsen, welcher in vielen Fällen zu einer Umstrukturierung ihrer Organisationsform und Eigentümerstruktur führte. Diese neu ausgerichteten Börsen verstanden sich nun als reguläre, gewinnorientierte Firmen, die nicht mehr in erster Linie ihren Kunden, sondern ihren neuen Eigentümern, den Aktionären, verpflichtet waren. ...
Eine Vielzahl an biologischen und medizinischen Studien, die sich mit möglichen Ursachen von Homosexualität beschäftigen, wurden in den letzten 120 Jahren publiziert. Arbeiten aus den Bereichen der Endokrinologie, Morphologie und Genetik werden anhand wissenschaftlicher Kriterien analysiert. Dabei wird gezeigt, dass keine der Arbeiten einer eingehenden Überprüfung standhält. Ein separates Kapitel gibt Auskunft über Homosexualitätsforschung und „Therapieversuche“ an Homosexuellen im nationalsozialistischen Deutschen Reich. Methoden der Erfassung von sexueller Orientierung und Konzepte sowie die Entstehungsgeschichte des Begriffs Homosexualität werden vorgestellt. Weiterhin werden Motive und Risiken biomedizinischer Homosexualitätsforschung diskutiert. Eine Erklärung für das Missverhältnis zwischen der Popularität der publizierten Ergebnisse und ihrer wissenschaftlichen Qualität wird gesucht. Der Autor legt dar, dass mit der erstmaligen Erwähnung der gleichgeschlechtlichen Liebe in der medizinischen Literatur die Kategorie „des Homosexuellen“ als Sammelbegriff für ein amorphes kulturelles Phänomen erst konstruiert wurde. In der unreflektierten Adaptation dieser Kategorie durch die Naturwissenschaften unter der Annahme, sie reflektiere eine biologische Gegebenheit, sieht er das bisherige und zukünftige Scheitern der biomedizinischen Homosexualitätsforschung begründet. Abschließend wird die Frage nach der Berechtigung dieser Disziplin gestellt.
Der zunehmende Emigrantenzustrom bedeutet auch eine Zunahme an fremden Drogen in unseren Breitengraden. Kath, eine Droge, welche mehrheitlich im vorderen Orient verzehrt wird, hat so den Weg zu uns gefunden. Kathkonsumenten mit auffälligem Fahrverhalten werden durch die Polizei gestoppt und es gibt Anfragen der Gerichte an die forensischtoxikologischen Sachverständigen zu dieser Droge, da Kath unter den im § 315, 316 StGB genannten Begriff der „anderen berauschenden Mitteln“ fällt und somit Klärungsbedarf bestand in wie weit Kath als Droge die Fahrtüchtigkeit beeinflusst oder einschränkt. Gerade zum Thema Fahren unter Katheinfluss gab es keine Literatur, so dass eine Pilotstudie konzipiert wurde, um mit Methoden aus dem Bereich des MPU-Verfahrens diese Problematik zu untersuchen. Zur Untersuchung des Einflusses von Kath auf den Menschen wurde eine Pilotstudie mit vier Probanden durchgeführt, diese mussten eine Stunde lang authentisches Kath kauen, danach über einen Tag verteilt verschiedene Tests absolvieren, sich Blut und Vitalparameter untersuchen lassen. Der Untersuchungsablauf erfolgte nach einem festgelegten Schema. Zu den Testsystemen zählte das Wiener Determinationsgerät, der d2-Durchstreichtest, sowie die Befindlichkeitsskala. Es wurde ein routineanalytisches Verfahren etabliert, womit die Alkaloide des Kath mittels Festphasenextraktion und nach Derivatisierung gaschromatographisch-massenspektrometrisch im Blut analysiert wurden, die Quantifizierung erfolgte nach Kalibration mit Referenzsubstanzen. Das Verfahren wurde validiert und es zeigte sich, dass keine Störungen durch Matrixbestandteile auftraten, so dass die Alkaloide eindeutig detektiert werden konnten. Weiterhin wurde eine Stabilitätsstudie durchgeführt, um die Lagerungsbedingungen zu optimieren, insbesondere für das instabile Cathinon. Um authentische Fälle besser interpretieren zu können, erfolgte die pharmakokinetische Auswertung der Alkaloide aus dem Blut der Probanden. Es zeigte sich, dass bei der Konsumform des Kauens mehr als 90% der Alkaloide aus dem Blattmaterial aufgenommen wurden. Bei den Plasmakonzentrationen wurden Norephedrin und Cathin über 54 Stunden im Blutserum nachgewiesen, Cathinon weniger als 12 Stunden. Maximale Plasmakonzentrationen wurden (tmax) im Durchschnitt nach 2,3h (Cathinon) erreicht, 2,6h (Cathin) und 2,8h (Norephedrin). Die pharmakokinetische Auswertung zeigte, dass die Verteilung und Elimination am besten durch ein Zwei-Kompartiment-Modell mit Zweisegmentabsorbation charakterisiert war, wobei im ersten Segment am meisten absorbiert wurde (über 77%), höchstwahrscheinlich über die mucösen Membranen der Mundschleimhaut. Die psychophysischen Leistungstests zeigten im Falle des WD und des d2-Tests eine marginale Zunahme der richtig bearbeiteten Zeichen, wahrscheinlich durch einen Lerneffekt bedingt. Der Befindlichkeitstest zeigte nach über 3 Stunden eine Befindlichkeitsverschlechterung an. Bei den Blutdruck- und Pulsmessungen kam es zu keinen deutlichen Abweichungen. Insgesamt wurden keine eindeutigen psychophysischen Veränderungen festgestellt, was auf die aus ethischen Gründen bei der Pilotstudie verwendete geringe Drogenmenge und die fehlende Kontrollgruppe zurückzuführen sein dürfte. In Ergänzung zur Probandenstudie wurden Befunde an Kathkonsumenten in 39 forensischen Fällen ausgewertet und hinsichtlich der angeblichen Aufnahmemenge der Droge, der Alkaloidkonzentrationen im Blutserum und den Polizei- und Dienstarztaussagen interpretiert. Eine Korrelation zwischen Alkaloidkonzentrationen im Blut und den psychophysischen Defiziten wurde nicht gefunden. Die Auswertung zeigte, dass bei 54% der Betroffenen Reaktionen, die an amphetamininduzierte Zustände erinnern, wie Tremor, Nervosität, vegetative Symptome (Pupillenveränderungen, trockener Mund), Apathie, Beeinträchtigungen beim Stehen und Laufen auftraten. Andererseits wurden bei, laut eigener Angaben, chronischem Kathabusus (35%) häufig keine oder nur geringe Ausfallserscheinungen festgestellt. Aufgrund der hier erhobenen Befunde muss man schlussfolgern, dass sich durch Kath drogeninduzierte Zustände hervorrufen lassen, die allerdings in der Probandenstudie aufgrund des Studiendesigns nicht produziert werden konnten. Die bei authentischen Konsumenten beobachteten erheblichen Ausfälle in der Leistungsfähigkeit belegen eindeutig, dass Kath als „berauschendes Mittel“ klassifiziert werden muss. Bei den Kath-Konsumenten handelte es sich ausnahmslos um Personen mit Emigrationshintergrund, welche Kath gewohnheitsgemäß chronisch anwenden und bei denen die Einsicht fehlt, auf diese Droge zu verzichten. Für die Widerherstellung der Fahreignung ist daher bei nachgewiesenem Kathabusus in Verbindung mit Verkehrsdelikten eine strenge Abstinenz gemäß den Leitlinien zur Fahreignungsbegutachtung zu fordern. Die Erkenntnisse dieser Arbeit wurden unter anderem für ein Gutachten für den Bundesgerichtshof zur Bestimmung der „nicht geringen Menge“ für Cathinon herangezogen und im Urteil vom 28.Oktober 2004 (BGH, Urteil vom 28.10.04-4 StR 59/04- LG Münster) gewürdigt.
Erhöhte Faktorenaktivitäten der Gerinnungsfaktoren VIII und IX standen seit längerer Zeit in dem Verdacht, unabhängige thrombophile Risikofaktoren darzustellen. Die Studienlage hierzu ist bzgl. der Wahl der untersuchten Kollektive, der Messmethoden, sowie der berücksichtigten Einflussgrößen uneinheitlich. Daher wurde die vorliegende Studie durchgeführt, um zum einen in einem Normalkollektiv die die Faktorenaktivität möglicherweise beeinflussenden Störgrössen wie Body Mass Index (BMI) oder ein steigendes Lebensalter zu definieren, und um andererseits die Häufigkeit erhöhter Faktor VIII und IX Aktivitäten bei Patienten mit venösen Thrombosen unter Berücksichtigung dieser Störgrössen im Vergleich zum Normalkollektiv exakt zu analysieren. Es wurden 500 Blutspender konsekutiv als Normalkollektiv eingeschlossen. Diesem wurde ein Patientenkollektiv von 374 konsekutiven Patienten mit venösen Thrombosen gegenübergestellt. Beide Kollektive wurden an Hand eines einheitlichen, standardisierten Fragebogens bezüglich ihrer Eigen- und Familienanamnese befragt. Darüber hinaus erfolgte eine Blutentnahme unter standardisierten Bedingungen. Als Messmethode für die Faktorenaktivität von Faktor VIII und IX wurde ein Einstufengerinnungstest verwendet, hierbei wird die Aktivität eines einzelnen Gerinnungsfaktors gemessen. Alle zu untersuchenden Plasmen wurden auf Lupusantikoagulantien getestet, um Probanden und Patienten mit positiven Lupusantikoagulantien von den weiteren Berechnungen ausschließen zu können, da Lupusantikoagulantien die Faktorenmessergebnisse verfälschen können. Dies wurde in den bisherigen Veröffentlichungen nicht berücksichtigt. Mit Hilfe des Normalkollektives wurde die 90% Perzentile als Cut Off für erhöhte Faktorenwerte definiert (FVIII = 158%; FIX = 151%). Bei Analyse des Faktors VIII konnten mit Hilfe einer linearen Regressionsanalyse folgende Störgrössen als relevant für die Faktorenaktivität innerhalb des Normalkollektives beschrieben werden: Raucher wiesen signifikant niedrigere Faktor VIII – Aktivitäten als Nichtraucher auf, während ein steigender BMI und ein steigendes Lebensalter zu signifikant höheren Faktor VIII -Aktivitäten führten. Ein Einfluss des Geschlechtes, sowie ein signifikanter Einfluss oraler Kontrazeptiva auf die Faktor VIII - Aktivitäten konnte nicht nachgewiesen werden. Die Aktivitäten des Faktor IX zeigten im Normalkollektiv ebenfalls eine Abhängigkeit von steigendem Lebensalter, höheren BMI Werten sowie im Gegensatz zur Faktor VIII – Aktivität auch von der Einnahme oraler Kontrazeptiva, wobei alle diese Zustände zu signifikant höheren Faktor IX Aktivitäten führten. Ein Vergleich der Höhe der Faktor VIII – Aktivitäten der Patienten mit venösen Thrombosen zum Normalkollektiv konnte leider nicht durchgeführt werden, da festgestellt wurde, dass eine unterschiedlich lange Lagerzeit der tiefgefrorenen Plasmaproben der Patienten zu einem Absinken von erhöhten Faktor VIII – Aktivitäten führen kann. Dies wurde in der Literatur bisher nicht beschrieben und war daher zu Beginn der Studie nicht bekannt. Im Gegensatz hierzu blieben die erhöht gemessenen Faktor IX – Aktivitäten auch nach einer längeren Lagerzeit stabil, so dass hier eine Risikoberechnung für erhöhte Faktor IX – Aktivitäten in Bezug auf das Auftreten venöser Thrombosen mit einer korrigierten Odds – Ratio erfolgen konnte. Die für BMI, Alter und Geschlecht korrigierte Odds Ratio betrugt 3,98 mit einem 95% Konfidenzintervall von 2,5 – 6,3. Es ist somit von einem ca. 4 fach erhöhten relativen Risiko für venöse Thrombosen bei erhöhten Faktor IX – Aktivitäten auszugehen, so dass diese einen neuen thrombophilen Risikofaktor für venöse Thrombosen darstellen.
Die Tracheotomie langzeitbeatmeter Patienten hat sich als integraler Bestandteil der modernen Intensivtherapie etabliert. Die von Ciaglia et al. 1985 beschriebene perkutane Dilatationstracheotomie (PDT) erwies sich als sichere, komplikationsarme und wenig zeitaufwendige Alternative zum konventionellen, offenen Vorgehen. Ausgehend von der PDT wurden bis 2001 drei weitere perkutane Tracheotomietechniken im klinischen Alltag verwendet: 1990 die von Griggs vorgestellte Guide- Wire- Dilating- Forceps Technik (GWDF), 1997 die translaryngeale, retrograde Technik nach Fantoni (TLT) und 1999 die modifizierte single-step Technik nach Ciaglia mittels des speziellen Blue Rhino®– Dilatators (CBR). Ziel der vorliegenden klinischen Untersuchung war es, ob eine Lernkurve für die vier Verfahren besteht und sie hinsichtlich ihrer Komplikationen und Praktikabilität zu vergleichen. Bei insgesamt 200 Intensivpatienten wurde unter Beachtung der absoluten Kontraindikationen bettseitig eine elektive perkutane Tracheotomie unter fiberoptischer Kontrolle durchgeführt. Jede der vier Methoden (PDT, GWDF, TLT, CBR) kam bei jeweils 50 Patienten, die chronologisch in zwei Kohorten (Gruppe A: Patienten 1-25, Gruppe B: Patienten 26-50) aufgeteilt wurden, zur Anwendung. Erfasst wurden die Dauer des Eingriffs und alle perioperativen Komplikationen, beginnend unmittelbar vor dem Eingriff bis 48 Stunden danach. Die Komplikationen wurden zunächst den Kategorien intraoperativ und postoperativ zugeteilt, dann wiederum unterschieden in medizinische und technische und in die drei Schweregrade leicht, mittel und schwer eingeordnet. Alle Verfahren waren schnell durchführbar. Bezogen auf das Gesamtkollektiv erwies sich die CBR als schnellste durchführbare Methode, gefolgt von der GWDF, der PDT und der TLT. Die Eingriffsdauer verkürzte sich bei allen Methoden außer bei der CBR in der zweiten Kohorte im Vergleich zu ersten. Bei den 200 perkutanen Tracheotomien traten insgesamt 3 schwere Komplikationen auf (1,5%), alle medizinischer Natur, 13 mittelschwere Komplikationen (7,5%), etwa zur Hälfte technisch und zur Hälfte medizinisch, und 38 leichte Komplikationen (19%), auch in etwa zur Hälfte technisch und medizinisch. Kohortenabhängig ergab sich bei allen Verfahren bis auf die PDT ein Rückgang der Gesamtkomplikationen in den Gruppen B im Vergleich zu den Gruppen A. Aufgeschlüsselt nach medizinisch und technisch ging der Anteil der technischen Komplikationen im Vergleich zu dem Anteil der medizinischen Komplikationen stärker zurück. Als Schlußfolgerung ergibt sich, daß alle vier Methoden der perkutanen Tracheotomie schnell durchführbar sind und eine niedrige Komplikationsrate aufweisen. Die seltenen schweren Komplikationen sind offenbar nicht durch Übung und zunehmendes Beherrschen der Technik vermeidbar. Legt man als Kriterium für die Erlernbarkeit einer Tracheotomiemethode die Komplikationsrate und die Dauer des Eingriffs zugrunde, so legt diese Untersuchung nahe, dass jeweils für alle vier untersuchten Verfahren der perkutanen Tracheotomie eine Lernkurve existiert.
Es ist seit ein paar Jahren bekannt, dass es bei amblyopen Patienten neben Vi-susverlusten, einer exzentrischen oder unruhigen Fixation und einer ganzen Reihe weiterer Phänomene, zu einer gestörten Lokalisation (Verzerrung und Unsicher-heit) im amblyopen Auge kommt. Lokalisationsstörungen behindern die visuelle Wahrnehmung und die Visuomotorik der Betroffenen. Darüber hinaus gibt ihr ge-naues Studium Informationen über die Ausprägung der Amblyopie und erlaubt Überlegungen zur Amblyopieentstehung. Die Forschungseinheit „Sehstörungen des Kindesalters“ an der Augenklinik der Universität Frankfurt am Main, in der die-se Doktorarbeit durchgeführt wird, beschäftigt sich u. a. mit der visuellen Lokalisa-tion bei Kindern. Mit einer für diesen Zweck entwickelten Methode [Fronius et al. 1995] wird die visuelle Lokalisation bei normalsichtigen und amblyopen Kindern erfasst [Fronius et al. 2000, 2004]. Ziel dieser Arbeit ist die Ergänzung der vorhandenen Daten und die Auswertung nach neuen Gesichtspunkten. Die Studie untersucht Lokalisationsstörungen im Führungsauge und befasst sich erstmalig damit, ob und inwiefern solche Lokalisa-tionsstörungen auch bei der binokularen Lokalisation vorkommen. Sie präsentiert die Ergebnisse, die schielamblyope (n=32) sowie normalsichtige Kinder (n=35) im Alter von 4,5 bis 10 Jahren bei der vertikalen relativen Lokalisation monokular und binokular erzielen. Verwendet wird die durch Fronius und Mitarbeiter 1995 entwor-fene –aktive– Testmethode, die aus einer Kombination von zwei früheren Testver-fahren für Erwachsene [Bedell & Flom 1981, Fronius & Sireteanu 1989] hervorge-gangen ist. Darüber hinaus wird analysiert, inwieweit der Visus, Faktoren aus der klinischen Geschichte (Zeitpunkt der Brillenverordnung, Vorbehandlung durch Okklusionstherapie) und Begleitphänomene wie ein latenter Nystagmus eine Rolle spielen. Dabei ergibt sich, dass die Führungsaugen der hier untersuchten amblyopen Kin-der eine ähnlich genaue relative vertikale Lokalisation zeigen wie die normalsichti-ge Kontrollgruppe. Dagegen ist der Visus in den Führungsaugen signifikant niedri-ger als der der Kontrollkinder (Einzeloptotypenvisus: p=0,0007, Reihenvisus: p=0,005). Die Führungsaugen sind demnach keine „normalen“ Augen, was den Visus betrifft, zeigen jedoch keine messbar gestörte Positionswahrnehmung. Möglicherweise handelt es sich hier um zwei von einander unabhängige Phänomene – Lokalisationsstörungen und Visusminderung – , die im amblyopen Sehsystem an-zutreffen sind. Eventuell spielen aber auch die verwendete Testmethode und das junge Alter der Probanden eine Rolle. Laut Krieter [2000] machen Kinder in die-sem Test signifikant größere Fehler als Erwachsene, was das Herausstellen von eventuell vorhandenen Effekten erschweren könnte. Der Vergleich der monokularen und der binokularen Lokalisation ergibt unter den vorhandenen Untersuchungsbedingungen bei der normalsichtigen Kontrollgruppe keine signifikanten Unterschiede. Ein binokularer Summationseffekt liegt nicht vor. Auch bei den Schielamblyopen entspricht die monokulare der binokularen Lokali-sationsgenauigkeit. Allerdings ist die binokulare Lokalisation bei den Amblyopen wesentlich ungenauer als bei der Kontrollgruppe, die Unsicherheit ist bei ihnen signifikant (p=0,009) und die Verzerrung tendenziell (p=0,07) größer. Es werden also bei Mitgebrauch des amblyopen Auges, binokular, Unterschiede zwischen den amblyopen Kindern und der Kontrollgruppe deutlich. Dies spricht für eine leichte Störung durch das amblyope Auge bei der binokularen Lokalisation. Ein Vorteil ergibt sich nach den Ergebnissen dieser Arbeit für die Kinder mit Okklusionstherapie in der Vorgeschichte (n=7) betrachtet man den Visus im amblyopen und im Führungsauge. Ein Einfluss der Okklusionstherapie auf die Lo-kalisation stellt sich nicht heraus. Der Zeitpunkt der Brillenverordnung (Brille vor dem 2. Lebensjahr: n=10, Brille nach dem 2. Lebensjahr: n=20) beeinflusst nach unseren Ergebnissen weder den Visus noch die Lokalisationsergebnisse der un-tersuchten Kinder. Diese Arbeit erweitert das Wissen über die Leistungen von schielamblyopen und normalsichtigen Kindern bei Lokalisationsaufgaben und zeigt erstmals Daten der binokularen Lokalisation.
Einleitung: In der vorliegenden Studie wurde die laparoskopisch durchgeführte Thermoinzision der Ovarialoberfläche, eine operative Behandlungsmöglichkeit des polyzystischen Ovarsyndroms (PCOS), im Hinblick auf die Auswirkungen auf Zyklustempus und Fertilität untersucht.
Material und Methode: Zwischen März 1999 und April 2002 unterzogen sich 55 PCOS-Patientinnen, mittleres Alter 30,4 Jahre, im Zentrum für Frauenheilkunde und Geburtshilfe der Universitätsklinik Frankfurt am Main und in der Abteilung für gynäkologische Endokrinologie und Fertilitätschirurgie im Bürgerhospital Frankfurt am Main einer Thermoinzision der Ovarialoberfläche. Alle Patientinnen litten an unerfülltem Kinderwunsch, 20 von ihnen hatten zusätzlich einen unregelmäßigen Menstruationszyklus, 7 gaben eine vermehrte Behaarung. 16 Patientinnen hatten sowohl einen unregelmäßigen Menstruationszyklus als auch Hirsutismus. 37 Patientinnen hatten bereits vor der Operation frustrane Hormonbehandlungen hinter sich. Bei 18 Patientinnen wurde die Thermoinzision der Ovarialoberfläche als primärer Therapieansatz im Rahmen einer Laparoskopie zur Sterilitätsdiagnostik gewählt. Die Nachbeobachtung fand durch schriftliche Befragung und das Einsehen der Krankenblätter und der Operationsberichte statt. Der Fragebogen umfasste im Wesentlichen drei Punkte: 1) Die allgemeine Zufriedenheit mit der Behandlung 2) Den Behandlungserfolg zum Zeitpunkt der Befragung im Vergleich zu vor der Operation (Schwangerschaften, Zyklusregelmäßigkeit, Hirsutismus) 3) Die zusätzlich zur Thermoinzision der Ovarien in Anspruch genommenen Behandlungen (z.B. Medikamente) Die mittlere Nachbeobachtungszeit betrug 31 Monate.
Ergebnisse: Die Schwangerschaftsrate nach durchgeführter Thermoinzision betrug in dieser Studie 51%. Davon traten 90% innerhalb des ersten postoperativen Jahres auf. Der Anteil der Patientinnen mit regelmäßigem Zyklus stieg von 35% auf 58%. Damit war der Einfluss der Thermoinzision auf den Menstruationszyklus signifikant Bei 39% kam es zur Verbesserung des Hirsutismus. Die Abortrate nach Thermoinzision lag in dieser Studie bei 21%. Insgesamt waren 85% der operierten Patientinnen zufrieden bis sehr zufrieden mit dieser Behandlungsmethode. In der Gruppe der Patientinnen mit Nikotinkonsum sind 36% schwanger geworden, im Gegensatz zur Nichtrauchergruppe mit einer Schwangerschaftsrate von 57%. Zwischen Body Mass Index und postoperativer Zyklusregelmäßigkeit / Schwangerschaftsrate, sowie zwischen Alter und postoperativer Zyklusregelmäßigkeit / Schwangerschaftsrate bestand kein Zusammenhang.
Diskussion und Schlussfolgerung: Die Thermoinzision der Ovarialoberfläche ist eine effektive Methode zur Behandlung von Zyklusunregelmäßigkeiten und Sterilität bei PCOS-Patientinnen. Zudem zeigt sie auch Erfolg in der Behandlung des Hirsutismus bei diesen Patientinnen. Da es sich um einen operativen Therapieansatz handelt, sollte die Thermoinzision als Therapie der zweiten Wahl, nach versuchter medikamentöser Therapie, eingesetzt werden.
Im Rahmen der vorliegenden retrospektiven Arbeit wurden die, bezogen auf die diagnostischen Möglichkeiten der peripheren Gefäßkrankheiten, Aufnahmequalitäten der als Goldstandard zu beurteilenden Untersuchungsmethode der intraarteriellen Digitalen Subtraktionsangiographie (i.a. DSA) mit der trotz bereits jahrelanger Anwendung immer noch „innovative“ Methode der kontrastmittelunterstützten Magnetresonanzangiographie verglichen. Insbesondere wurde die Frage der Qualität der Interventionsplanung und der Aspekt der aus den durch die Unterschiede der Imagequalität entstehenden Konsequenzen für den Patienten beleuchtet und so der Stellenwert für die KM-MRA in der präinterventionellen Diagnostik evaluiert. Die Bedeutung der kritischen Auseinandersetzung mit den beiden Untersuchungsmethoden liegt in den, durch die mögliche Ablösung der i.a. DSA aus der Position des Goldstandards, entstehenden Vorteilen für den Patienten. Zu nennen sind der Wegfall der Strahlenbelastung und des invasivinterventionellen Risikos, die renale Entlastung und die Verkürzung des Krankenhausaufenthaltes. Als zusätzlicher eindeutiger Nutzen der KM-MRA kann die gleichzeitige Aufnahme mehrerer Gefäßsegmente, durch die z.B. in dieser Studie 23 nicht vermutete zusätzliche Gefäßläsionen enttarnt werden konnten, gesehen werden. Im Zeitraum von Januar 2001 bis Dezember 2002 wurden 100 Patienten mit Gefäßläsionen und einer klinischen Symptomatik der Claudatio intermittens, eingeteilt nach Fontaine I-IV, durch beide Diagnosemethoden untersucht. Beide Untersuchungsmethoden wurden zur Sicherstellung der gleichen morphologischen Pathologie innerhalb von 4 Wochen durchgeführt. Dabei wurden von Observer 1 insgesamt 871 (Observer 2: 845) Stenosen in der KM-MRA und in der i.a. DSA Observer 1: 848 (Observer 2: 887) diagnostiziert. In 90,01%(=Observer 1) der Fälle stimmten die Befunde der beiden Aufnahmetechniken überein (Observer 2: 93,14%). Ein zusätzlicher Informationsgewinn durch die KM-MRA ließ sich ausschließlich bei Observer 1 mit 2,64% evaluieren. Anhand der guten Ergebnisse dieses großen Kollektivs, des hohen Positiven Vorhersagewertes von über 97,36% (bzw. 100%), sowie den insgesamt beachtlichen statistischen Werten für die Sensitivität, die Spezifität, Kappa und die Signifikanz, ist die KM-MRA mit Gadolinium (Gadobutrol=Gadovist) in hochdosierter 1,0 molarer Konzentration und die hier verwendeten technischen Möglichkeiten wie Tischverschiebung und der peripheren MRA-Spule eine exzellente Screening- und Nachuntersuchungsmethode bei der pAVK. Durch die im Vergleich mit der i.a. DSA ebenfalls akkurate Diagnostik mit insgesamt 11 therapeutisch-relevanten Abweichungen, gilt die KM–MRA als eine nichtinvasive empfehlenswerte Alternative zur Abstimmung der präinterventionellen Therapieplanung. Gerade für Patienten mit einer Re-stenose oder einer Re-okklusion ergibt sich mit der KM-MRA eine akkurate nicht-invasive diagnostische Alternative und eine Erleichterung der Behandlungsplanung.