Refine
Year of publication
- 2006 (295) (remove)
Document Type
- Doctoral Thesis (295) (remove)
Has Fulltext
- yes (295)
Is part of the Bibliography
- no (295) (remove)
Keywords
- Apoptosis (4)
- Cytochromoxidase (4)
- Elektronentransfer (3)
- 5-Lipoxygenase (2)
- Biochemie (2)
- Electron transfer (2)
- Elektronenmikroskopie (2)
- Elektronenspinresonanzspektroskopie (2)
- Entzündung (2)
- Geographie (2)
Institute
- Medizin (113)
- Biochemie und Chemie (52)
- Biowissenschaften (36)
- Pharmazie (29)
- Physik (17)
- Wirtschaftswissenschaften (7)
- Gesellschaftswissenschaften (6)
- Neuere Philologien (5)
- Informatik (4)
- Erziehungswissenschaften (3)
Einleitung Da allseits bekannt ist, dass die Zufuhr von exzessiven Jodmengen zur Induktion einer Hashimoto Thyreoiditis führen kann, war das Ziel unserer Studie die Beziehung zwischen der Jodurinkonzentration und der Anti-TPO-Antikörperkonzentration aufzuzeigen um einen Cut-off point für eine sichere Joddosis festzulegen. Des weiteren untersuchte die Studie, ob unter diätisch zugeführtem Jod, im Sinne einer freiwilligen Jodmangelprophylaxe, bereits die empfohlene Tagesdosis überschritten wird und daher Risiko besteht, eine Hashimoto-Thyreoititis zu entwickeln. Methodik Zwischen 2001 und 2002 wurden 475 Kinder, Jugendliche und Erwachsene untersucht, die in der Universitätskinderklinik Frankfurt a.M. vorstellig wurden. Das Patientenkollektiv wurde nach Geschlecht und Altersgruppen unterteilt. Es wurden sowohl morgendlicher Spontanurin zur Jod- und Kreatininanalyse als auch Serum für die Bestimmung der anti-TPO-Ak gesammelt. Ergebnisse Daten von 302 Patienten gingen in die Auswertung ein. Die Prävalenz von positiven anti-TPO-Ak betrug 3,7% mit einer Geschlechterverteilung weiblich zu männlich von 2,7:1. Insgesamt konnte keine Korrelation zwischen Jodurinkonzentration und anti-TPO-Ak Konzentration festgestellt werden (r= 0,0544, p>0,05). Analysen nach Alter und Geschlecht ergaben jedoch bei weiblichen Erwachsenen eine leichte, aber signifikante Korrelation der beiden Parameter (r= 0,3939, p< 0,05). Eine Jodkonzentration über 300 µg J/g Kreatinin stellte sich als unabhängiger Risikofaktor heraus (p<0,05). Vergleicht man Jodkonzentrationen kleiner 300 µg/ g Kreatinin und Jodkonzentrationen größer 300 µg/ g Kreatinin von jugendlichen und erwachsenen weiblichen Probanden, waren positive anti-TPO-Ak wesentlich häufiger mit Jodkonzentrationen über 300 µg/g Kreatinin assoziiert (x 2=9,2238; p<0,005). Adäquate Jodkonzentrationen wurden bei 69,5%, überschiessende Jodkonzentrationen bei 16,9% des Studienkollektivs gefunden. Unter leichtem Jodmangel litten 9,9%, unter moderatem 0,7% und unter schwerem Jodmangel 3,0% der Probanden. Schlussfolgerung Die Prävalenz positiver anti-TPO-Ak unter nutritiver Jodzufuhr beträgt 3,7%. Frauen neigen eher dazu, anti-TPO-Ak zu entwickeln, besonders mit steigendem Alter und Jodkonzentrationen im Urin von über 300 µg/ g Kreatinin. Insgesamt konnte keine Korrelation zwischen Jodkonzentrationen im Urin und anti-TPO-Ak Konzentrationen im Blut festgestellt werden. Daher war es auch nicht möglich, einen Cut-off-point für eine sichere Dosis an diätisch zugeführtem Jod zu determinieren. Es sei darauf hingewiesen, dass 16,9% des Studienkollektivs Jodkonzentrationen von über 300 µg/ g Kreatinin im Urin aufwiesen, was sich als unabhängiger Risikofaktor zur Entwicklung positiver anti-TPO-Ak herausstellte (p<0,05). Betrachtet man die durch die Jodkampagnen in den letzten 10 Jahren stetig steigenden Jodkonzentrationen der deutschen Bevölkerung, so schein es zukünftig nötig zu sein Konzepte zu entwickeln, um Überdosierungen von Jod in deutschen Haushalten zu vermeiden.
Klinische 8-Jahres-Studie der indivuell angepassten, nicht zementierten Hüft-TP : Typ LANDOS EGOFORM
(2006)
Fragestellung: Seit 1988 wird das Konzept des individuellen Hüftprothesenschaftes Landos „Egoform“ an der Universitätsklinik Frankfurt / Main angewendet und weiterentwickelt. Die anatomische Prothesenform mit ihrer lateralen Schulter und dem medialen Kragen, sowie der proximalen Hydroxylapatitbeschichtung wurde auf Basis von Finite Elemente Studien entwickelt. Als Basis für die computerassistierte individuelle Anpassung dienen Röntgenbilder in zwei Ebenen mit vorher am Oberschenkel angelegtem, röntgendichtem Referenzband. Ziel der vorliegenden Studie war die retrospektive Erhebung der mittel- bis langfristigen klinischen Ergebnisse dieses zementfreien Schaftes. Methode: Von 1988 bis 1996 wurden in der Universitätsklinik Frankfurt 370 Patienten mit einer Egoform-Individualprothese in zementfreier Technik operiert. Davon konnten 267 Hüften nachuntersucht werden (72,2%; mittlerer Nachuntersuchungszeitraum: 80 Monate). Die Erhebung der postoperativen Daten erfolgte anhand des Harris-Hip-Scores. Ergebnisse: Der durchschnittliche Harris-Hip-Score beträgt 90 von 100 Punkten. Die Ergebnisse für Schmerzfreiheit betragen 39,9 von 44 Punkten, für das Gangbild 29 von 33 und für die Mobilität 4,9 von 5 Punkten. 11 Patienten mussten revidiert werden, 5 (1,35%) wegen aseptischer Lockerung und 6 (1,62%) wegen septischer Lockerung. Schlussfolgerung: Die vorgestellten Ergebnisse zeigen, dass durch die zementfreie Individualprothese mit lateraler Schulter einige der typischen Probleme zementfreier Schaftprothesen, wie z.B. der Oberschenkelschmerz oder die Nachsinterung, gelöst werden können. Die funktionellen Ergebnisse entsprechen zusammenfassend denen der zementierten Schäfte aus der Schweden-Studie.
In der vorliegenden Studie wurden fünf Dentinadhäsive (Prime & Bond, Optibond Solo, Scotchbond, Syntac Single Component und Syntac Sprint) sowie ein Gemisch aus Phosphor- und Flusssäure bezüglich ihrer Zytotoxizität anhand des Agar-Diffusionstests mit humanen Gingivafibroblasten untersucht. In den Vorversuchen wurden die zu testenden Haftvermittler auf sterilen Deckgläsern angesetzt, den gezüchteten Zellen ausgesetzt und deren Reaktion mittels Mikroskop beurteilt. Mittels dieser Vorversuche sollte untersucht werden, inwieweit überhaupt eine Zytotoxizität unter den zu testenden Mitteln vorlag oder ob es auch Mittel gab, die gar nicht toxisch auf die Zellen wirkten. In den ersten drei Hauptversuchen wurden die Dentinscheiben der Größe 500 mikro m, 400 mikro m, 300 mikro m, 200 mikro m und 100 mikro m zur Konditionierung mit dem Gemisch aus Phosphor- und Flusssäure vorbehandelt, mit dem jeweiligen Haftvermittler nach Vorschrift bedeckt und nachfolgend auf die gezüchteten Zellen aufgelegt. Der vierte Versuch diente dem direkten Vergleich zwischen dem in dieser Studie verwendeten Ätzgemisch und dem in einer vergleichbaren Studie verwendeten Ätzmittel Conditioner 36. In der vorliegenden Studie konnte eine Zytotoxizität aller untersuchten Dentinadhäsive und auch des untersuchten Gemischs aus Phosphor- und Flusssäure beobachtet werden. In der Gruppe der Dentinadhäsive schnitt das Material Optibond Solo am besten ab, gefolgt von Scotchbond, Prime & Bond und Syntac Single Component. Die stärkste Zytotoxizität wies das Material Syntac Sprint auf. Auch das Ätzmittelgemisch aus Phosphor- und Flusssäure war im Vergleich zu dem Testpartner Conditioner 36 gleich schädlich für die Gingivafibroblastenzellen.
This thesis is concerned with the derivation of new methods for the analysis of nonstationary, cross correlated panels. The suggested procedures are carefully quantified by means of Monte Carlo experiments. Typical applications of the developed methods consist in multi-country studies, with several countries observed over a couple of decades. The empirical applications implemented here are the testing for trends in the investment share in European GDPs and the examination of OECD interest rates. In the first chapter, a panel test for the presence of a linear time trend is proposed. The test is applicable in cross-correlated, heterogeneous panels and it can also be used when the integration order of innovations is unknown, by means of subsampling. In the next chapter a cointegration test having asymptotic standard normal distributiun and not requiring exogeneity assumptions is derived. In panels exhibiting cross-correlation or cointegration, individual test statistics are asymptotically independent, which leads to a panel test statistic robust to dependence across units. The third chapter examines in an econometric context the simple idea of combining p-values from a series of statistical tests and improves its applicability in the presence of cross-correlation. The last chapter applies recent panel techniques to OECD long-term interest rates and differentials thereof, finding only rather week evidence in favor of stationarity when allowing for cross-correlation.
Schon zu Beginn der Schizophrenieforschung ist man immer wieder auf Fälle gestoßen, die sich nicht oder nur schwer kategorisieren ließen. So erkannte bereits Kraepelin (1920) das Problem von Symptomkonstellationen, die sich nicht eindeutig in sein dichotomes Modell von „Dementia praecox“ und „manisch-depressivem Irresein“ (1896) einfügten. Es handelte sich um Patienten, die schizophrene Symptome und affektive Störungen im Wechsel oder aber auch gleichzeitig aufwiesen. In den folgenden Jahren gab es viele Bezeichnungen für derlei Phänomene. Es wurde von „Mischpsychosen“, einem „intermediären Bereich“ oder von „atypischen Psychoseformen“ gesprochen. Kurt Schneider (1980) bezeichnete sie als „Zwischenfälle“, Kasanin (1933) prägte den heute verwandten Begriff der „schizoaffektiven Psychosen“. Betrachtet man nun Langzeitverläufe über viele Jahre, so können in einigen Fällen Übergänge von der einen in die andere nosologische Entität beobachtet werden. Häufiger und besser belegt handelt es sich um Syndromwechsel von einer primär affektiven Störung hin zu einer schizophrenen Psychose. Wobei Marneros (1991) im Rahmen seiner großen Langzeitstudie, die den Verlauf affektiver, schizoaffektiver und schizophrener Psychosen miteinander vergleicht, deutlich darauf hinweist, dass sich keine typische Richtung eines Syndromwechsels oder Bevorzugung eines bestimmten Verlaufs belegen lässt. In unserer katamnestisch Studie beschäftigen wir uns ausführlich mit fünf Langzeitverläufen, die einen Übergang einer eindeutig diagnostizierten Schizophrenie mit mehreren Schüben und Exarcerbationen in eine bipolare Störung zeigen. Es handelt sich um eine explorative Arbeit, die bei allen Patienten eine mehr als 20-jährige Krankheitsgeschichte beleuchtet. Im Mittelpunkt stand die Untersuchung vieler sorgfältig geführter Krankenakten, die sowohl Aufzeichnungen der behandelnder Psychiater und Pflegekräfte enthielten, als auch Zusatzmaterialien wie Briefe, Postkarten und Bilder umfassten. Als wesentliches Mittel zum Herausstellen des Syndrom wechsels bzw. des Strukturwandels diente uns die genaue Betrachtung der erlaufspsychopathologie. Ergänzt wurden unsere Beobachtungen bezüglich der Krankheitsverläufe durch eigene Einschätzungen und Beurteilungen der Patienten, die in einem freien Interview in den Jahren 2002 und 2003 erhoben wurden. In allen fünf Fällen war ein eindeutiger Wandel der Symptomatik zu erkennen, welcher als solcher auch von den untersuchten Patienten empfunden und in den Interviews eindrücklich beschrieben wurde. Es zeigte sich bei allen fünf männlichen Patienten mit einem durchschnittlichen Ersterkrankungsalter von 22,6 Jahren, dass die erste Manie im Durchschnitt nach 10,4 Jahren und eine erste Depression im Durchschnitt nach folgenden 8,2 Jahren auftrat. Da nach dem Syndromwechsel Symptome aus dem schizophrenen Formenkreis bis heute fehlen, lässt sich in unseren Fällen die Bezeichnung als schizoaffektive Psychose nicht halten. Es handelt sich also um einen Syndromwechsel im Sinne eines Entitätenwechsels, der über Jahre hinweg stabil bleibt. Auch der Ausgang der Erkrankung unterstreicht unsere Beobachtung. Bei allen Patienten ist sowohl subjektiv als auch objektiv ein positiver Ausgang festzustellen. Dieses Phänomen deckt sich mit den Ergebnissen der vielfältig durchgeführten Studien zum besseren Ausgang von affektiven als von schizophrenen Erkrankungen. Konsequenterweise führte eine Phasenprophylaxe mit Lithium in allen Fällen zu einem Behandlungserfolg. In der Literatur fehlen bisher sorgfältig recherchierte und über viele Jahre belegte Krankheitsverläufe mit dem beschriebenen Strukturwandel der Erkrankung. Die Frage, womit ein solcher Übergang zusammenhängen könnte, kann derzeit nicht beantwortet werden. Diskutiert wird die Wirkung von Neuroleptika, hier vor allem deren depressiogene Potenz. Wenn man diese depressiogene Wirkung verantwortlich machen wollte, wäre nach dem Übergang in eine affektive Störung zunächst eine depressive Phase zu erwarten. Das Gegenteil ist bei unseren Patienten der Fall: alle unsere Patienten entwickelten nach einem durchschnittlichen Intervall von 10,4 Jahren zuerst eine Manie und dann im weiteren Verlauf eine Depression. Mit Hilfe eines psychodynamischen Erklärungsversuches könnte der Strukturwandel als ein Prozess verstanden werden, der dazu diente, der drohenden Ich-Destruktion und – Fragmentierung entgegenzuwirken und über Jahre zur Entwicklung eines höheren psychischen Strukturniveaus der Patienten geführt hat. Es bleibt in jedem Fall festzuhalten, dass weitere Studien auf dem Forschungsgebiet des Syndromwechsels wünschenswert wären, um dem Wesen des Wandels und auch der damit verbundenen klinisch relevanten therapeutischen Konsequenzen näherzukommen.
Die technische Entwicklung kleiner, mobiler Ultraschallgeräte erlaubt den Einsatz der Sonographie auch außerhalb der Klinik. In der vorliegenden Arbeit wird untersucht, ob die präklinische Sonographie mit einem mobilen Ultraschallgerät eine praktikable Methode darstellt, um am Unfallort abdominelle Blutungen zu diagnostizieren und inwieweit dies Einfluß auf die Therapie und das Management schwerverletzter Patienten hat. Die präklinische Sonographie wurde an 61 Patienten durchgeführt, bei denen eine intraabdominelle Verletzung nicht auszuschließen war. Unmittelbar nach Klinikaufnahme wurde der präklinisch festgestellte Ultraschallbefund mittels erneuter Ultraschalluntersuchung bzw. Computertomographie des Abdomens im Rahmen der Schockraumdiagnostik kontrolliert. Bei einer Untersuchungsdauer von durchschnittlich 2.8 ± 1.2 min wurde bei 16 Patienten (26.2 %) freie Flüssigkeit gefunden, 7 mit massivem, 9 mit diskretem pathologischen Befund. 4 der Patienten mit ausgeprägtem Befund wurden unmittelbar nach Klinikaufnahme laparotomiert und 3 aufgrund einer Milzruptur splenektomiert. Drei Patienten verstarben am Unfallort u.a. aufgrund ihrer abdominellen Verletzungen. Die präklinische Sonographie ergab schließlich ein falsch positives Ergebnis, jedoch kein falsch negatives Ergebnis, welches eine Spezifität von 97,9% und eine Sensitivität von 100% ergibt. In 36% der Einsätze wurde das präklinische Management modifiziert und in 21 % aufgrund der sonographischen Diagnose die Wahl der Zielklinik beeinflußt. Die präklinische Sonographie hat sich als sichere und fehlerarme Methode zur präklinischen Diagnostik abdomineller Blutung bewährt und stellt für den Einsatz im Notarztdienst eine sinnvolle Erweiterung der Diagnostik dar. Die Pilotstudie war Grundlage für eine Multicenterstudie der Deutschen Rettungsflugwacht, die klären soll, ob die präklinische Sonographie generell für den Einsatz im Rettungsdienst empfohlen werden kann.
Ziel der vorliegenden Arbeit war es, die kognitiven und neurophysiologischen Grundlagen des visuellen Arbeitsgedächtnisses (AG) zu untersuchen. Es wurden zwei Studien durchgeführt. In der ersten wurden per Verhaltensdaten die Ressourcen von Manipulationsprozessen im visuellen AG nach Materialart erfasst. Dazu wurden insgesamt sechs Experimente konstruiert. In der zweiten Studie wurden mit zwei Experimenten die neurophysiologischen Grundlagen des visuellen AG per funktioneller Magnetresonanztomographie (fMRT) dargestellt. Im Folgenden wird kurz das Modell des Arbeitsgedächtnisses nach Baddeley (1992) erläutert, gefolgt von einer Beschreibung der visuellen Pfade, welche für die Struktur des visuellen AG grundlegend sind. Danach werden die kortikalen Korrelate des visuellen AG skizziert. Anschließend werden aus den dargestellten Befunden die Methoden für die beiden Studien dargestellt und deren Ergebnisse diskutiert. Baddeley (1992) definiert das Arbeitsgedächtnis als ein System für das kurzfristige Halten und Manipulieren von Information, welche für weitere komplexe kognitive Prozesse wie Verstehen, Lernen und Schlussfolgern benötigt wird (Baddeley, 1992). Baddeley und Hitch (1974) entwickelten ein Modell des Arbeitsgedächtnisses, das aus drei getrennten Subsystemen besteht: Einer zentralen Exekutive (ZE), welche als übergeordnetes Aufmerksamkeits-Kontrollsystem arbeitet und die in das aktive Manipulieren von Material involviert ist, wie z.B. die mentale Rotation von Objekten. Dazu wurden zwei Sklavensysteme postuliert, die phonologischen Schleife und der visuell-räumlichen Notizblock (im folgenden visuelles AG genannt). Die phonologische Schleife hält phonologisch basierte Information und der visuell-räumliche Notizblock visuelles Material. Resultate aus psychologischen Experimenten und bildgebenden Studien dokumentieren, dass sowohl die kognitiven wie die neurophysiologischen Grundlagen des visuellen AG auf Basis der Materialart („Was vs. Wo“) und den operierenden kognitiven Prozessen („Halten vs. Manipulieren“) organisiert sind. Das Verhältnis zwischen den beiden Faktoren Material und Prozess ist bisher sowohl für die kognitive als auch für die neurophysiologische Ebene trotz einer Vielzahl an Untersuchungen umstritten. Im folgenden Abschnitt werden knapp die für die Struktur des visuellen AG wichtigen parallelen perzeptuellen Bahnen beschrieben. Eine funktionelle Trennung der visuellen Wahrnehmung erfolgt bereits in der Retina. Magnozelluläre Ganglienzellen sprechen vor allem auf Luminanzunterschiede an, parvozelluläre auf Wellenlängenunterschiede (Livingstone und Hubel, 1987). Kortikal wird die visuelle Information weiter in parallelen Bahnen verarbeitet. Eine ventrale Bahn analysiert vor allem Form und Farbe („Was“), eine dorsale die räumliche Position von Objekten und Bewegungen („Wo“, Ungerleider und Mishkin, 1982). Es konnte demonstriert werden, dass die Aufteilung der visuellen Wahrnehmung in eine ventrale und dorsale Bahn auch für höhere kognitive Prozesse wie das Halten von Information im visuellen AG erhalten ist (Della Sala et al., 1999). Die Autoren fanden bei neuropsychologischen Patienten Doppel-Dissoziationen in der Bearbeitungsleistung von Arbeitsgedächtnistests, welche sensitiv für das Halten von ventraler und dorsaler perzeptuelle Information sein sollten. Zusätzlich validierten die Autoren die Tests mit Interferenzaufgaben an Gesunden. Die Leistungen beider Tests wurden jeweils durch verschiedene Arten von Interferenz (räumliche vs. visuelle) beeinträchtigt. Somit konnte demonstriert werden, dass das Halten im visuellen AG nach Materialart getrennte Ressourcen aufweist. Ungeklärt ist, ob diese Trennung auch für aktive Prozesse wie das Manipulieren bestehen bleibt. Auch in den kognitiven Neurowissenschaften ist die Organisation der neurophysiologischen Grundlagen des Arbeitsgedächtnisses umstritten. Es fanden sich in einer Reihe von Studien deutliche Hinweise, dass der frontale Kortex (FK) eine zentrale Rolle für das visuelle AG einnimmt (Bauer und Fuster, 1976). Eine Vielzahl an Studien erbrachte allerdings widersprüchliche Ergebnisse hinsichtlich der funktionalen Organisation des FK nach Material („Was vs. Wo“, domänspezifische Theorie, Goldman-Rakic, 1987) und Prozessart („Halten vs. Manipulieren“, prozessspezifische Theorie, Petrides, 1994). Studien, die demonstrierten, dass der ventrolaterale FK für das Halten von Objekten und der dorsolaterale für das Halten von räumlichen Relationen spezialisiert ist (Courtney et al., 1998), konnten nicht immer bestätigt werden (DEsposito et al., 1998). Es konnte allerdings gezeigt werden, dass das verwendete Stimulusmaterial in den Experimenten großen Einfluss auf die Ergebnisse hatte und dass vor allem ein Defizit in der Konstruktion von ventralen Stimuli bestand, welche nur wenige räumliche Bestandteile beinhalteten (Sala, Rämä und Courtney, 2003). Somit ist diese unklare Befundlage unter anderem auf den Mangel an geeigneten Paradigmen zur Untersuchung vom Halten und Manipulieren ventraler Information zurückzuführen. Mit Studie 1 sollte per Verhaltensdaten untersucht werden, ob Prozesse der Manipulation auf materialspezifisch getrennten, kognitiven Ressourcen basieren. Die Studie bestand aus sechs Experimenten. Die ersten drei bestanden aus einer Dual-Aufgabe, in der ventrale und dorsale Information einzeln oder synchron manipuliert werden mussten. Die Manipulation ventraler Information wurde über das Mischen von Farben erfasst, die Manipulation dorsalen Materials über das mentale Rotieren von Halbkreisen. Zur Kontrolle von perzeptuellen und seriellen Lösungsstrategien wurden drei Varianten des Experimentes konstruiert, welche sich in der zeitlichen Darbietung der Stimuli unterschieden. In den Dual-Bedingungen der Experimente 1-3 trat keine Interferenz auf. Dieses Resultat unterstützt die Annahme getrennter, materialspezifischer kognitiver Ressourcen für das Manipulieren visuellen Materials. Im vierten Experiment mussten die Probanden eine räumlich-räumliche Dual-Aufgabe bearbeiten. In der Dual-Bedingung von Experiment 4 entstand Interferenz, da beide Aufgaben das gleiche dorsale System im visuellen AG beanspruchen. Zwei zusätzliche Experimente wurden zur Kontrolle der untersuchten Prozesse konstruiert (Experimente 5 und 6). Mit ihnen sollte überprüft werden, in welchen Umfang Prozesse des Manipulierens und des Haltens der visuellen Stimuli (Farbe und Rotation) auf Ressourcen der phonologischen Schleife und der zentralen Exekutive basieren. Es wurde dokumentiert, dass weder das Halten noch das Manipulieren des Materials die phonologische Schleife in Anspruch nimmt. Die Manipulation des visuellen Materials beruhte im Gegensatz zu deren Halten auf zentral-exekutive Ressourcen. Die Resultate zeigen, dass die materialspezifische Aufteilung der visuellen Verarbeitung auch für höhere kognitive Prozesse des Manipulierens erhalten ist und dass sich das Manipulieren im Ausmaß der benötigten zentral-exekutiven Ressourcen vom Halten unterscheidet. Studie 2 beschäftigte sich mit der funktionellen Organisation der neurophysiologischen Grundlagen des visuellen AG. Auf Basis des für Studie 1 entwickelten ventralen und dorsalen Halten- und Manipulationsparadigmas wurden zwei Experimente für das fMRT konstruiert. Im ersten Experiment mussten die Probanden Farben und räumliche Orientierungen halten, im zweiten Experiment mussten sie beide Materialarten manipulieren. Es konnte aufgezeigt werden, dass die Aufteilung des FK materialspezifisch erfolgt. Das Halten und Manipulieren der Farbinformation aktivierte Regionen um den Sulcus frontalis inferior, das Halten und Manipulieren des räumlichen Materials beanspruchte Regionen in der Nähe des Frontalen Augenfeldes (Kreuzung des Sulcus praecentralis / Sulcus frontalis superior). Der Kontrast zwischen Halten und Manipulieren erbrachte keine solche dorso-ventrale Dissoziation des FK. Die Ergebnisse der Verhaltens- und fMRT-Daten beider Studien verdeutlichen die Organisation der kognitiven und neurophysiologischen Ressourcen des FK nach Materialart, aufbauend auf dem ventralen und dorsalen perzeptuellen Pfad. Das Ergebnis der vorliegenden Studie bestätigt frühere Untersuchungen zur Organisation des FK (Courtney et al., 1998) und erweitert die bisherigen Resultate dahingehend, dass der FK auch für Manipulationsprozesse materialspezifisch organisiert ist.
Im Rahmen dieser Doktorarbeit wurde eine wirksame synthetische und spektroskopische Methode entwickelt, um Abstände in DNA- und RNA-Duplexen mittels Elektronen-Paramagnetische-Resonanz (EPR) zu messen und um in Zukunft die dreidimensionale Struktur biologisch relevanter RNAs bestimmen zu können. Die Synthese von iodierten Nukleotid-Bausteinen für die Oligonukleotidsynthese, an denen mit Hilfe der Palladium katalysierten Sonogashira-Kreuzkupplung sich EPR-aktive Nitroxid-Acetylene einführen lassen, wurde erfolgreich durchgeführt. Diese Phosphoramidite sollten die folgenden Kriterien erfüllen: Alle vier Basen (A, C, G und U) sollten modifiziert werden und das eingeführte Spinlabel 2,2,5,5- Tetramethyl-3-ethinyl-pyrrolin-N-oxyl (TPA) sollte entweder in die minor oder die major groove hineinragen. Im Falle der Pyrimidine (U und C) war nur die Orientierung in die major groove möglich, da das Iodid nur am C5 eingeführt werden kann. Obwohl 5-Iodo-desoxyuridin- und 5-Iodo-uridin-phosphoramidit käuflich sind, wurden diese Bausteine selber hergestellt, wobei die iodierten Bausteine mit hohen Ausbeuten erhalten wurden. Die Synthese von 5-Iodo-cytidin erfolgte aus Cytidin, insbesondere durch die Iodierung mit Iod, Iodsäure in Essigsäure und Tetrachlorkohlenstoff. Die einzige Möglichkeit, dass das Nitroxid eine Orientierung innerhalb der minor groove annimmt, war die Derivatisierung am C2 der Purine. Der Austausch von Iodo gegen eine Aminofunktion für Guanosin war wegen des Verschwindens einer potentiellen Wasserstoffbrücke ungünstig, im Gegensatz zu Adenosin. Die Synthese von 2-Iodo-adenosin-phosphoramidit wurde durchgeführt, wobei die Amino-Gruppe am C2 eines modifizierten Guanosins durch Iod mittels einer radikalischen Reaktion mit Iod, Iodmethan und Kupferiodid substituiert wurde. Die Synthese von 7-Deaza-adenosin (7-Iodo-tubercidin) und von 7-Deaza-guanosin wurde durch eine Lewissäure katalysierte Vorbrüggen-Glykosylierung zwischen der geschützen Nukleobase und der acetylierten Ribofuranose erzielt. Die Iodierung erfolgte für das geschützte Tubercidin mit N-Iodsuccinimid, während sie für Guanosin trotz zahlreicher Versuche leider scheiterte. Da natürlich vorkommende DNA und RNA nicht paramagnetisch sind, müssen sie durch die Einführung eines Spinlabels EPR-fähig gemacht werden. Dafür wurde das Spinlabel TPA ausgewählt, da es sich mit einer hohen Stabilität und Starrheit auszeichnet. Dafür wurde zuerst die Palladium(II) katalysierte Sonogashira-Kupplung in DNA-Strängen wärend der Oligonukleotidsynthese für 5-Iodo-desoxy-uridin optimiert: Sehr reine Proben mit einem oder zwei Spinlabels in einem Strang konnten hergestellt werden. Diese Methode wurde anschließend erfolgreich auf RNA mit geringfügigen Änderungen für U, C und A übertragen, um die Ausbeute der Kupplung zu verbessern. Die benutzte Chemie hat sich als entscheidend erwiesen, da es zu berücksichtigen gilt, wie sich die Reagenzien, die bei der RNA-Festphasensynthese eingesetzt werden, auf das Spinlabel auswirken. Es wurde festgestellt, dass die Oxidationsstufe des klassischen TBDMS-Festphasenzyklus mit Iod, Pyridin und Wasser für die Reduktion eines beträchtlichen Teils des Nitroxids verantwortlich ist, insbesondere im Falle von 2-Iodo-adenosin. Deshalb wurde beschlossen, die patentierte ACE-Chemie zu verwenden, in der das Phosphor-Atom während des Festphasenzyklus mit tert-Butylperoxid in Toluol oxidiert wird. Die Synthese der geeigneten Bausteine wurde hierfür durchgeführt, 5-Iodo-uridin-phosphoramidit ist bei Dharmacon kommerziell erhältlich. Leider scheiterte die Synthese von 7-Iodo-tubercidin-phosphoramidit auf der Stufe der Einführung des Orthoesters. Auf diese Weise wurden sehr reine doppelgelabelte DNA und RNA Duplexe erhalten, deren Stabilität durch UV-Spektroskopie überprüft wurde. Der Unterschied in den Tm-Werten überstieg nicht 3,2°C für DNA und 5,1°C für RNA im Vergleich zu den unmodifizierten Duplexen. CD-Spektren wurden ebenso aufgenommen und zeigten, dass die B- bzw. A-Form erhalten blieb. In Zusammenarbeit mit dem Arbeitskreis Prisner wurden die Abstände zwischen den zwei Nitroxiden in den synthetisierten fünf DNA- und sechs RNA-Duplexen mit Puls-Elektron-Doppel-Resonanz (PELDOR) gemessen. Diese experimentellen Werte wurden mit den theoretischen Werten verglichen, die mit Molecular Dynamics Simulationen erhalten wurden (Arbeitskreis Stock). Die mit beiden Methoden erhaltenen Ergebnisse stimmen überein. Erfolgreich wurde auch die Synthese von reinen spingelabelten biologisch relevanten RNAs wie TAR-RNA, der vier-Wege Kreuzung IIIa,b,c des Hepatitis C Virus und dem U4-U6 Komplex des Spleißosoms im Rahmen dieser Arbeit durchgeführt. Die größte synthetisierte RNA betrug 65 Nukleobasen. Leider konnten wegen zu hoher Flexibilität oder nicht richtiger Faltung der RNA keine definierten Abstände gefunden werden.
In the first part of the present work (Chapter 3), EPR spectroscopy at different microwave frequencies, namely at 9 GHz (X-band), 34 GHz (Q-band) and 180 GHz (G-band), was employed to resolve the g-values and the HFCs of a putative radical intermediate involved in the reduction of benzoyl-CoA catalyzed by benzoyl-CoA reductase. In particular, the effect of 33S-labeling on the EPR line shape was studied at X- and Q-band frequencies in order to gain further evidence for a sulfur centered radical proposed to be the electron donor in the reduction or the aromatic ring of BCoA [I]. The spectral components observed at X-, Q- and G-band were overall consistent and showed at least three overlapping EPR signals. The signal postulated to be due to a disulfide radical anion showed no resolved g-values and a relaxation behaviour faster than expected for such a radical species. These observations together with the simulations suggest that the signal could arise from a radical exchange coupled to an [4Fe-4S] cluster located nearby. In the future, pulsed EPR and ENDOR spectroscopy on the 57Fe-labeled enzyme could help to solve this question. The potential of high-field ENDOR in combination with 13C- and 31P-labeling for investigating the structure at the active site in proteins could be verified in the studies of the ligation sphere of the cofactor Mn2+ in Ras as reported in Chapter 4 [2]. Therein, high-field ENDOR performed at 94 GHz (W-band) was used to detect the hyperfine interactions between the electron spin mainly located on the metal ion and the phosphorous nuclei of the bound GDP and GppNHp as well as the carbon nuclei of bound amino acids in the wild-type Ras protein and its oncogenic mutant G12V. These studies aimed at searching for an additional free phosphate ion or amino acid ligand bound to the metal center in the wild type GDP-bound protein with respect to its oncogenic mutant. Rom the 13C- and 31P-ENDOR spectra, the hyperfine couplings of directly bound amino acids and the bound nucleotides were compatible with the hyperfine couplings obtained from DFT calculations based on the crystal structure data. No differences in the 13C- and 31P-ENDOR spectra could be found for the wild-type GDP-bound protein in comparison to its oncogenic mutant in frozen solution. Therefore, no evidence for binding of an additional free phosphate ion or amino acid ligand in the wild-type GDP-bound protein was found. The distances between the detected nuclei and the meta1 ion were in agreement with the ones extracted from crystal structures reported in the literature. Future 35C1-ENDOR studies could clarify whether a chloride ion from the buffer solution could be the ligand replacing one water molecule in the wild type GDP-bound Ras. In Chapter 5, the implementation of a high-field ENDOR setup into a homebuilt pulsed EPR spectrometer operating at 180 GHz is reported and its performance for 1H-ENDOR demonstrated on the model system BDPA. Mims and Davies ENDOR spectra were also obtained for Ras(wt).Mn2+.DP. The increased nuclear Zeeman resolution at 180 GHz may be further exploited in the future by extending the setup for studying hyperfine couplings of low-y nuclei such as 33S, 15N , 17O or 2H. In the present work, the advantages of performing EPR and ENDOR experiments at high fields and frequencies could be nicely demonstrated with the 94 GHz ENDOR studies of Ras. Furthermore, the complementing information obtained at X- and Q-band frequencies in the multifrequency EPR studies on BCR demonstrated that the analysis of EPR spectra can be greatly facilitated by simulating the spectra measured at different MW frequencies with the same set of parameters consistent with a proposed radical. Overall, it could be shown that the use of different experimental techniques at multiple fields and frequencies renders EPR spectroscopy a powerfull tool for structural studies in biological systems.
Today the structure of photosystem II, which is the enzyme responsible for the evolution of molecular oxygen by plants, algae and cyanobacteria, is known up to a resolution of about 3.0 Å in cyanobacteria (Loll et al., 2005). Photosystem II of higher plants, which shows some differences compared to the photosystem II of cyanobacteria, is not resolved in such high detail, yet (8-10 Å) (Rhee et al., 1998; Hankamer et al., 2001a). Therefore, the molecular structure of PSII of higher plants and its adjacent antenna complexes remains in the focus of the current research. One of the major problems when working with photosystem II is its relative instability during isolation. Together with the antenna proteins and several other proteins, some of which still have an unclear function, PSII forms a huge multi-protein-complex, which tends to fall apart during classical preparation methods. In order to achieve a faster and milder method of purification for PSII, four different His-tags have been added to one of the subunits of PSII. The gene targeted in this study is called psbE and codes for the α-chain of cytochrome b559, an integral part of PSII. The gene for PsbE is encoded in the chloroplast genome. The His-tags, which were employed in this work, consist of six or ten consecutive histidine aminoacid residues, which were fused to the N-terminus of the protein, either with or without a cleavage site for the protease “Factor Xa”. The N-terminus of PsbE is located on the more accessible stromal side of the thylakoid membrane. After inserting the psbE gene in a vector plasmid, in which the recognition site for the restriction endonuclease SacI had been eliminated, the different His-tags were generated by PCR with purposefully altered primers. In a final cloning step, a gene, which confers resistance to the antibiotics spectinomycin and streptomycin, was added to the DNA construct. Subsequently, the so-called biolistic transformation method (“gene gun”) was applied to introduce this genetically engineered plasmid DNA to Nicotiana tabacum chloroplasts (Bock & Hagemann, 2000). Through the processes of homologous recombination that take place in the chloroplast, the plastid encoded wildtype psbE gene was replaced by its His-tag containing counterparts. After several rounds of regenerating plants on antibiotic-containing medium, successful transformation was confirmed through PCR methods. By self fertilisation of fully regenerated plants, seeds were produced from tobacco strains, which carried only the mutated psbE gene. Plants cultivated from these seeds showed no distinctive phenotype under the chosen growth conditions, in respect to wildtype plants. The presence of the His-tag in this F1 generation was again confirmed with PCR methods. Measurements of oxygen evolution and pulse amplitude modulated fluorescence (PAM), carried out with preparations of wildtype and transgenic tobacco strains, revealed no differences for photochemical or non-photochemical quenching between both types. However, the oxygen evolution capacity of transgenic tobacco thylakoids compared to the wildtype was significantly reduced, although the chlorophyll content in relation to the leaf area was almost identical. This hints at a reduced amount of photosystem II complexes in the thylakoid membranes of transgenic tobacco. This alteration could be related to the mutation of cytochrome b559, because, amongst other functions, this subunit was shown to be important for the assembly of photosystem II (Morais et al., 1998). If solubilised thylakoid preparations of His-tagged plant strains were applied to a Ni-NTA column, photosystem II was selectively bound to the matrix. After washing away most of the contaminations, photosystem II core complexes could be eluted with imidazole-containing buffer. Photosystem II prepared in this way, displayed a drastic reduction of the peripheral light-harvesting complexes (LHCI & LHCII) and photo-system I reaction centres. This could be demonstrated by the loss of chlorophyll b and xanthophyll bands (LHCs) in absorption spectra, a small blue-shift of the chlorophyll a Qy absorption (PSI) and the respective band patterns in polyacrylamide gel electro-phoresis. The photosystem II complexes prepared in this way can now be put to use in different structural studies, like two-dimensional or three-dimensional crystallisation and spectroscopic measurements. Another photosynthetic pigment-protein complex of interest is the fucoxanthin-chlorophyll a/c-binding protein of diatoms, because eukaryotic algae, like diatoms, are important factors of oceanic ecosystems and account for a large part of marine biomass production. In order to facilitate ultra-fast time-resolved transient absorption spectroscopy and subsequent modelling of the kinetic traces, FCPs were prepared by sucrose-gradient ultra-centrifugation and their pigment stoichiometries determined by HPLC. Combining the spectroscopic data (Papagiannakis et al., 2005) with protein sequence alignments (Eppard & Rhiel, 1998) and the structure of the homologous higher plant LHCIIb (Kühlbrandt et al., 1994), a hypothetical model for the structure of FCP could be proposed (Fig. IV.3)
Ziel dieser Arbeit war es, die Effizienz der Ambulanten Endokrinologie an der Universität Frankfurt mit Hilfe statistischer Methoden zu untersuchen. Die Basis hierfür bildeten die Karteikarten von 449 Kassenpatienten, die im Jahr 2000 die Ambulanz aufsuchten!. Dank dieser großen Zahl von Fällen konnten die meisten Aussagen, die im Rahmen dieser Arbeit gemacht wurden, statistisch signifikant belegt werden. Dies geschah mit Hilfe sogenannter statistischer Tests, mit denen es möglich ist, eine Hypothese gegen eine Alternativaussage auf ihre Gültigkeit zu testen. Zentrale Kernaussagen der Arbeit sind die folgenden: o Der Aufwand, der beispielsweise bei den Laboruntersuchungen investiert wird, ist in der Ambulanten Endokrinologie zwar hoch; er ist aber immer noch geringer als der Aufwand, der von niedergelassenen Ärzten getrieben wird, bis die richtige Diagnose feststeht. Der Grund hierfür liegt vor allem in der Anzahl der Ärzte, die vor der Ambulanz aufgesucht werden. o Der Aufwand bei anderen Untersuchungen, wie zum Beispiel Röntgenaufnahmen, Sonographie- oder Szintigraphieuntersuchungen ist in der endokrinologischen Ambulanz deutlich geringer als außerhalb. o Mitglieder der Ersatzkassen sind als Patienten in der Ambulanten Endokrinologie eindeutig überrepräsentiert, Mitglieder der AOK eindeutig unterrepräsentiert. Trotzdem bilden die AOK-Mitglieder die größte Gruppe unter den Kassenpatienten in der Ambulanz. o Die durchschnittliche Dauer bis zur Diagnose beträgt in der Ambulanten Endokrinologie 5 Tage. Ein Arztbrief wird im Mittel jedoch erst 76 Tage nach der Erstaufnahme verfaßt. Diese relativ lange Zeit ist aber immer noch kürzer als die Zeitspanne vom ersten Aufsuchen eines Arztes bis zur richtigen, als Arztbrief festgehaltenen Diagnose. Diese beträgt nämlich 110 Tage. o Obwohl man vermuten könnte, daß die Diagnosezuverlässigkeit von Hausärzten, Fachärzten und der Uniklinik unterschiedlich ist, konnte ein solcher Unterschied nicht in statistisch signifikanter Weise nachgewiesen werden. Der Anteil der Fälle, bei denen die Diagnose geändert werden mußte, betrug bei Hausärzten etwa 15%, bei Fachärzten 18% und bei anderen Abteilungen der Frankfurter Universitätsklinik 9%. Die letzte Zahl ist zwar deutlich kleiner als die anderen beiden; da aber nur 56 Karteikarten von Patienten vorlagen, die aus der Uniklinik heraus überwiesen wurden, ist hier keine sichere Aussage möglich. o Bei der Weiterversorgung der Patienten nach dem Aufsuchen der Ambulanten Endokrinologie ist in mindestens 85% der Fälle der Hausarzt involviert. In 43% aller Fälle übernimmt der Hausarzt die Weiterversorgung sogar alleine; die Ambulanz wird nicht mehr hinzugezogen. Selbst bei den verbleibenden 15% der Patienten ist davon auszugehen, daß sie sich mittelfristig wieder in die Behandlung des überweisenden Arztes begeben - auch wenn sie sich beispielsweise einer Operation unterziehen müssen. Nur 4 % der Patienten befinden sich seit mehr als 5 Jahren in der Obhut der Ambulanz. Die Befürchtung einiger Hausärzte, sie könnten die Patienten im Falle einer Überweisung an die Ambulante Endokrinologie verlieren, konnte mit all diesen Fakten eindeutig widerlegt werden. Zusammenfassend kann man sagen, daß die Effizienz der Ambulanten Endokrinologie bereits sehr hoch ist: o Eine eindeutige Diagnose ist gegeben. o Die Patienten der Ambulanten Endokrinologie erhalten eine lege artis Behandlung, insbesondere eine individuelle medikamentöse Einstellung. o Für die Krankenkassen bedeutet dies langfristig gesehen eine kostengünstige Versorgung. Neben den statistischen Ergebnissen gestattete es die Arbeit auch, Empfehlungen für eine weitere Effizienzsteigerung der Ambulanz zu machen. In diesem Zusammenhang sind die folgenden Vorschläge zu nennen: oDer Arztbrief sollte früher erstellt werden; unter anderem, um die Kommunikation mit dem Hausarzt, auf dessen Überweisung der Patient angewiesen ist, zu verbessern. o Bei den Karteikarten sollten einige zusätzliche Felder definiert werden, die in standardisierter Weise vom behandelnden Arzt auszufüllen sind. Dies gestattet es, in Zukunft ähnliche Statistiken wie die in dieser Arbeit präsentierten leichter und noch präziser auszuarbeiten. o Generell sollte die Flächendeckung der Endokrinologischen Ambulanzen verbessert werden. Auch die Öffnungszeiten könnten den Bedürfnissen berufstätiger Patienten folgend ausgeweitet werden. All dies ist zwar mit einem hohen finanziellen und personellen Aufwand verbunden; volkswirtschaftlich gesehen dürfte aber durch die präzisere Diagnostik und die bessere medikamentöse Einstellung ein gewisser Kompensationseffekt eintreten. Durch die höhere Patientenanzahl wäre eine bessere Kostendeckung gegeben. Beispielsweise wäre die Auslastung der apparativen Einrichtungen bei einer Ganztagssprechstunde deutlich höher.
Die Aufrechterhaltung des physiologischen Gleichgewichtes in einem mehrzelligen Organismus erfordert Mechanismen, welche die Balance zwischen der Toleranz gegenüber Selbst-Antigenen und der Auslösung einer Immunantwort ermöglichen. Diese Mechanismen werden unter dem Begriff periphere Toleranz zusammengefasst. Regulatorische T-Zellen (Treg) sind eine T-Zell-Subpopulation, die für periphere Toleranz und Homöostase des Immunsystems von großer Bedeutung sind (Powrie et al., 2003). Durch ihre suppressiven Eigenschaften sind Treg in der Lage, die Proliferation von konventionellen T-Zellen (Tcon) sowohl in vivo als auch in vitro zu hemmen und so eine Immunantwort von autoreaktiven TZellen einzudämmen. Für die Hemmung von Tcon in vitro wird der direkte Zellkontakt zwischen Treg und Tcon benötigt (Thornton und Shevach, 1998). Der molekulare Mechanismus humaner Treg ist bislang jedoch nur unzureichend geklärt. In der hier vorgestellten Forschungsarbeit wurden TZR-abhängige Signaltransduktionskaskaden analysiert, um den molekularen Mechanismus humaner Treg sowohl auf Ebene der Treg als auch auf Ebene der gehemmten Tcon zu entschlüsseln. Hierzu wurden im Rahmen der hier beschriebenen Experimente in unserer Abteilung die ex vivo Isolation und die in vitro Expansion humaner Treg etabliert. Mit Hilfe sensitiver Analysemethoden der TZR-abhängigen Signaltransduktionskaskaden konnte für humane Treg gezeigt werden, dass sie nach Stimulation über ihren TZR einen geringeren Ca2+-Einstrom im Vergleich zu dem in Tcon aufweisen. Ein weiteres Ergebnis der hier vorliegenden Arbeit ist, dass Treg im Zuge ihrer Aktivierung eine geringere Phosphorylierung einiger, für die TZR-induzierte-Signalkaskade relevante Signalmoleküle wie ERK1/2 und p38MAPK aufweisen. Für gehemmte Tcon aus der Kokultur mit humanen Treg wurde in dieser Forschungsarbeit ein zu Kontroll-Tcon vergleichbarer Ca2+-Einstrom detektiert. Die Ergebnisse dieser Arbeit zeigen außerdem, dass Tcon aus der Kokultur mit Treg eine verringerte Phosphorylierung der Signalmoleküle ERK1/2 und p38MAPK aufweisen. Die hier veröffentlichten Ergebnisse ermöglichen einen ersten Einblick in die molekulare Signaltransduktion von humanen Treg und zum ersten Mal auch in die von gehemmten Tcon. Dieses Verständnis stellt eine Grundlage für weitere Experimente dar und ermöglicht einen Schritt in Richtung der vollständigen Entschlüsselung des molekularen Mechanismus humaner Treg, die eine Voraussetzung für den therapeutischen Einsatz dieser Zellen ist. Eine weitere Zielsetzung dieser Arbeit war es, den Einfluss apoptotischer Zellen auf die Immunantwort zu untersuchen. Für die Gewebehomöostase mehrzelliger Organismen ist die effiziente und immunologisch unauffällige Eliminierung apoptotischer Zellen unabdingbar (Fadok et al., 1998; Lauber et al., 2004; Skoberne et al., 2005; Steinman und Nussenzweig, 2002). Im Rahmen der hier erläuterten Experimente wurden in vitro Studien durchgeführt, die einen inhibierenden Effekt apoptotischer Zellen auf die Reifung humaner dendritischer Zellen zeigen. Es konnte bestätigt werden, dass dendritische Zellen nach Phagozytose apoptotischer Zellen weniger proinflammatorische Moleküle sekretieren und eine geringere Oberflächenexpression kostimulatorischer Moleküle aufweisen. Nach Etablierung zweier in vitro Modellsysteme wurde in weiteren Experimenten gezeigt, dass T-Zellen durch dendritische Zellen, die zuvor apoptotische Zellen aufgenommen haben, eine geringere Stimulation erfahren. Diese Ergebnisse deuten auf einen anti-stimulatorischen Effekt dendritischer Zellen, die zuvor apoptotische Zellen aufgenommen haben hin, und sie bilden die Basis für eine anschließende in vitro Analyse der molekularen Auswirkungen auf dendritische Zellen und T-Zellen.
Studienziel: Das Ziel der Studie war die Klärung der Frage, ob eine systemische Bisphosphonattherapie mit Ibandronat Einfluss auf die Osteointegration von HA-beschichteten und unbeschichteten Titanimplantaten hat. Es sollte die Ibandronatdosis mit dem bestmöglichen Effekt herausgefunden werden. Weiterhin wurde der periprothetische Knochenanteil beurteilt. Methode: Es wurde eine tierexperimentelle Studie mit Ratten durchgeführt. Die Einteilung erfolgte in drei Therapiegruppen, die mit Ibandronat in den Dosierungen 1, 5 und 25 μg/kg Körpergewicht über 27 Tage behandelt wurden, sowie eine Kontrollgruppe, die mit NaCl 0,9% gespritzt wurde. In einer Operation erhielten die Versuchstiere in je einen Femur ein unbeschichtetes- und ein mit Hydroxylapatit-beschichtetes Titanimplantat. Nach 28 Tagen wurden die Femura entnommen und histomorphometrisch ausgewertet. Bestimmt wurde die osteointegrierte Prothesenoberfläche und der relative periprothetische Knochenanteil. Ergebnisse: Eine signifikante Steigerung der osteointegrierten Prothesenoberfläche konnte unter einer Dosierung von 5 und 25 μg/kg KG Ibandronat im Vergleich zur Kontrollgruppe für beide Implantatformen nachgewiesen werden. Ein Anstieg des relativen periprothetischen Knochenanteils zeigte sich in allen Therapiegruppen im Vergleich zur Kontrollgruppe, eine Signifikanz war aber nur bei der höchsten Dosierung (25 μg/kg KG) nachweisbar. Schlussfolgerung: Eine signifikante Verbesserung der Osteointegration unbeschichteter und mit Hydroxylapatit beschichteter Titanimplantate ist in dem durchgeführten Tierexperiment bei einer Therapie mit dem Bisphosphonat Ibandronat in einer Dosierung von 5 und 25 μg/kg KG zu erreichen. Begleitend kam es hierbei auch zu einer Anhebung des periprothetischen Knochenanteils, signifikant war der Effekt nur bei der Dosierung von 25 μg/kg KG. Unsere Ergebnisse legen nahe, dass Bisphosphonate die Sekundärstabilität und Haltbarkeit von zementfreien Implantaten verbessern können. Zukünftige Studien müssen die klinische Relevanz der Ergebnisse überprüfen.
Ribozyme und siRNAs sind in der Lage, durch sequenzspezifische Spaltung der viralen RNA, die HIV-Replikation in vitro zu inhibieren. Es konnten bis jetzt allerdings nur wenige Antisense-basierte Therapeutika entwickelt werden, die eine ausreichend effiziente antivirale Wirkung in klinischen Studien zeigen. In dieser Arbeit wurden verschiedene Untersuchungen zur Wirksamkeit von therapeutischen RNA-Effektor-Molekülen durchgeführt. Die Effizienz von exogen in Zellen transfizierter therapeutischer siRNAs wird von vielen Faktoren beeinflusst. Neben der Bindung der Effektor-RNA an ihre Ziel-RNA und der Stabilität der Effektor-RNA sind weitere wichtige Faktoren die Lokalisation innerhalb der Zelle sowie die Effizienz der Transfektion. Zur Beurteilung der Knockdown-Effizienz einer exogen zugeführten Effektor-RNA bedarf es somit einer Meßmethode, die diese unterschiedlichen Parameter berücksichtigt. Wesentlich ist dabei insbesondere die Transfektionseffizienz, in den meisten in vitro Studien finden jedoch Unterschiede in der Transfektionseffizienz wenig Beachtung. Da die Wirksamkeit der Effektor-RNA in einer Zelle nur dann hinreichend beurteilt werden kann, wenn bekannt ist wie viel RNA in die jeweilige Zelle transfiziert wurde, wurde ein Assay-System etabliert, mit welchem die Konzentrations-Wirkungs-Beziehung der Effektor-Moleküle ermittelt werden kann. Mit Hilfe dieses Assay-Systems wurde in dieser Arbeit der Einfluss verschiedener Nukleotidanaloga auf die Wirksamkeit von siRNAOligonukleotiden untersucht. Bei dem einen Nukleotidanaloga handelt es sich um das 2,4,6-Trifluorbenzene, eine universelle Base, welche den RNA-Duplex partiell destabilisiert. Es konnte bereits gezeigt werden, dass für die Effektivität von siRNAs ein thermodynamisch destabilisiertes 5’-Ende des antisense-Stranges von Vorteil ist. Eine siRNA mit zwei 2,4,6-Trifluorbenzenen am 5’-Ende des sense-Stranges zeigte eine erhöhte Effektivität gegenüber den Kontrollen. Das zweite Nukleotidanaloga war das 4,6-Difluorbenzimidazol. Dabei handelt es sich ebenfalls um eine universelle Base, die nicht zwischen den einzelnen Basen diskriminiert. Die Verwendung dieser Base soll die Toleranz einer verwendeten siRNA gegenüber Punktmutationen erhöhen. Im Einsatz gegen HIV könnte diese Strategie die Bildung von Escape-Mutanten verhindern. Diese Base wurde an den Positionen 7 und 10 im antisense-Strang eingebaut. Als Kontrollen wurden an diesen Positionen mismatch-Basenpaarungen eingesetzt. An diesen Positionen werden mismatch-Basenpaarungen allerdings gut toleriert, so dass durch den Einsatz des 4,6-Difluorbenzimidazol keine Effektivitätssteigerung erreicht werden konnte. Durch gezielte Punktmutagenese konnten Nukleotidpositionen innerhalb des siRNA Moleküls identifiziert werden, bei denen mismatch-Basenpaarungen zu einem hohen Aktivitätsverlust führen und an denen der Einbau des 4,6-Difluorbenzimidazol sinnvoll erscheint. Ein zweiter Teil dieser Arbeit beschäftigt sich mit anti-HIV Ribozymen. In unserer Arbeitsgruppe wurden mehrere neue anti-HIV Ribozyme entwickelt und charakterisiert. Das Hammerhead Ribozym gegen das 13. GUC Triplett im Pol Gen erwies sich als äußerst effizienter Inhibitor der HIV-Replikation in vitro. In dieser Arbeit konnte die antivirale Wirksamkeit durch Bestimmung der kinetischen Parameter bestätigt werden. Der Wert für Kcat von 3,9 min-1 entspricht der Spaltungsrate von Hammerhead Ribozymen von <5 min-1. Der ermittelte Wert ist verglichen mit anderen anti-HIV Ribozymen sehr hoch. Es handelt sich um ein Ribozym mit einer sehr hohen molaren katalytischen Aktivität. Die antivirale Wirkung dieses anti-HIV Ribozyms sollte durch die Kolokalisation an seine Target-RNA zusätzlich verbessert werden. Ribozyme binden sequenzspezifisch an ihre Target RNA, das Zusammentreffen von Ribozym und Ziel-RNA ist jedoch ein zufälliges Ereignis. Es konnte bereits gezeigt werden, dass die Kolokalisation von Ribozymen zu einer Effektivitätssteigerung führt. Es war geplant das Ribozym über RNA-Aptamere an die HIV-1 Proteine Tat und Rev zu kolokalisieren, da beide Proteine spezifisch über ihre RNA Bindedomäne an die HIV mRNAStrukturen TAR (Tat Activated Region) bzw. RRE (Rev Responsive Element) binden. In dieser Arbeit konnten Expressionssysteme und die Reinigung für beide viralen Proteine etabliert werden, allerdings ließ sich das Affinitätstag nicht durch Proteaseverdau entfernen. Aus diesem Grund wurde die Selektion der Aptamere mit Peptiden durchgeführt. In dieser Arbeit konnten jedoch keine RNAs identifiziert werden, die eine Affinität zu den Peptiden aufwiesen. RNA Interferenz wird zunehmend als das effektivste Verfahren zum spezifischen Knockdown einer mRNA angesehen. Zum Vergleich von siRNA mit anti-HIV Ribozymen wurden überlappende Zielsequenzen im HIV-1 Pol Gen für beide Effektor-Moleküle identifiziert und ihre antivirale Wirkung verglichen. Beide Ribozyme und shRNAs wurden retroviral in T-Zellen exprimiert, um die antivirale Wirkung der beiden Effektor-Moleküle vergleichen zu können. Die antivirale Aktivität der siRNAs wurde nach HIV-1 Exposition mit der unseres Referenzribozyms HHPol 13 verglichen. Die siRNA gegen eine Sequenz im Bereich des 7. GUC Tripletts im HIV-1 Pol Gen war in der Lage die HIV Replikation effektiv zu hemmen. In gleicher Weise konnte dies auch das Referenzribozym gegen das 13. GUC Triplett im Pol Gen. Die siRNA, die gegen die gleiche Sequenz wie das effektive Ribozym gerichtet war, zeigte hingegen keinerlei antivirale Aktivität. Dieses Ergebnis zeigt, dass ein Ribozym ebenso effektiv wie eine siRNA die HIV Replikation hemmen kann. Die siRNA, die gegen die gleiche Sequenz wie das effektive Ribozym gerichtet ist, hatte keine antivirale Aktivität. Neben der Zugänglichkeit der Ziel-RNA beeinflussen scheinbar noch andere Faktoren die Effizienz von siRNA-Molekülen. In diesen Experimenten wurden erstmals systematisch siRNAs und Ribozyme gegen identische Zielsequenzen miteinander vergleichen. Der antivirale Effekt der siRNA Pol7 wurde näher untersucht. Um die Effizienz der siRNA leichter zu bestimmen und vergleichen zu können, wurden die weiteren Versuche mit synthetischen Oligonukleotiden und der Zelllinie Hela-P4 CCR5 durchgeführt. Dabei zeigte die siRNA eine sehr gute Inhibition der viralen Replikation.
Tourismus in Pakistan : Darstellung, Stellenwert und Perspektiven aus entwicklungspolitischer Sicht
(2006)
Inhaltsverzeichnis Liste der wissenschaftlichen Beiträge .................................................................................. III Inhaltsverzeichnis ..............................................................................................................IV Abbildungsverzeichnis I List of Figures ................................................................................ VII Tabellenverzeichnis I List of Tables ..................................................................................... VIII Abkürzungsverzeichnis .......................................................................................................... IX 1 Einleitung 1.1 Problemstellung .............................................................................................................. 1 1.2 Einordnung und Ergebnisse der wissenschaftlichen Beiträge ....................................... 3 Literaturverzeichnis ................................................................................................................ 9 2 Langes Leben und Wohlstand im Alter: Ein Überblick über die finanzwirtschaftlichen Alternativen zur Ausgestaltung des Ruhestandes ... 10 2.1 Einführung .................................................................................................................... 10 2.2 Produktalternativen fiir die Ausgestaltung der Entnahmephase .................................. 12 2.2.1 Leibrenten .......................................................................................................... 12 2.2.1.1 Charakteristika von Leibrenten und deren historische Entwicklung .... 12 2.2.1.2 Leibrentenmarkt und -produkte in Deutschland ................................... 15 2.2.1.3 Determinanten von Leibrentenprämien ................................................ 22 2.2.2 Entnahmepläne ................................................................................................... 28 2.2.2.1 Charakteristika von Entnahmeplänen ................................................... 28 2.2.2.2 Entnahmepläne als Instrument der Ruhestandsplanung ....................... 31 2.2.2.3 Leibrenten vs. Entnahmepläne .............................................................. 33 2.3 Forschungsergebnisse zur Ausgestaltung der Entnahmephase .................................... 36 2.3.1 Einleitende Bemerkungen .................................................................................. 36 2.3.2 Positive Literatur ................................................................................................ 37 2.3.2.1 Theoretische Arbeiten zur Bedeutung von Leibrenten ......................... 37 2.3.2.2 Vererbungsmotive als Erklärungsansatz fiir geringe Nachfrage nach Leibrenten ... 39 2.3.2.3 Kosten als Erklärungsansatz fiir geringe Nachfrage nach Leibrenten .. 42 2.3.2.4 Weitere Erklärungsansätze rur geringe Nachfrage nach Leibrenten .... 44 2.3.3 Normative Literatur ............................................................................................ 47 2.3.3.1 Untersuchungen zu reinen Entnahmeplänen ......................................... 47 2.3.3.2 Untersuchung von Entnahmeplänen unter Berücksichtigung von Leibrenten ..... 50 2.3.4 Sonstige Arbeiten ............................................................................................... 56 2.4 Schlussbetrachtung ....................................................................................................... 57 Anhang A: Berechnung von Leibrentenprämien ................................................................. 59 Anhang B: Abbildung der Biometrie ................................................................................... 62 Literaturverzeichnis .............................................................................................................. 67 3 Betting on Death and Capital Markets in Retirement: A Shortfall Risk Analysis of Life Annuities versus Phased Withdrawal Plans... 76 3.1 Introduction .................................................................................................................. 76 3.2 The Case of Phased Withdrawal .................................................................................. 79 3.2.1 Withdrawal Plans with Fixed Benefits ............................................................... 80 3.2.2 Phased Withdrawal Rules with Variable Benefits ............ : ................................ 80 3.3 Risk and Reward Analysis of Phased Withdrawal Plans Conditional on Survival... ... 82 3.3.1 Research Design ................................................................................................. 82 3.3.2 Analysis of Expected Benefits ........................................................................... 84 3.3.3 Shortfall Risk Analysis ...................................................................................... 86 3.3.4 Analysis of Expected Bequests .......................................................................... 89 3.4 Risk-Minimizing Phased Withdrawal Strategies ......................................................... 90 3.4.1 Optimized Withdrawal Rules in a Risk-Return Context... ................................. 90 3.4.2 Comparative Results: Annuity versus Phased Withdrawal Plans ...................... 92 3.4.3 Phased Withdrawal Plans with Mandatory Deferred Annuities ........................ 97 3.4.4 Comparative Results ........................................................................................ 100 3.5 Summary and concluding remarks ............................................................................. 101 Appendix A: Determining Annuity Benefits ..................................................................... 104 Appendix B: Determining Expected Benefits, Expected Bequest and the Risk of a Consumption Shortfall for Phased Withdrawal Plans with given Benefit-to-Wealth Ratios .......................................................................................................................... 105 References .......................................................................................................................... 107 4 Leistungsgarantien in der Auszahlphase von investmentbasierten Altersvorsorgeverträgen: Entwicklung eines konditionalen Eigenkapitalsystems und Analyse seiner ökonomischen Implikationen ... 111 4.1 Einführung .................................................................................................................. 111 4.2 Altersvorsorgeverträge in der Auszahlphase ............................................................. 114 4.2.1 Gesetzliche Regelungen ................................................................................... 114 4.2.2 Entnahmepläne vs. Leibrenten ......................................................................... 115 4.3 Konditionales Eigenkapitalsystem fiir Altersvorsorgeverträge ................................. 117 4.3.1 Einleitende Vorbemerkungen ........................................................................... 117 4.3.2 Konzeptionelle Grundlagen eines konditionalen EK-Systems ........................ 119 4.3.3 Deduktion eines Eigenkapitalsystems fiir die Entnahmephase ........................ 121 4.4 Eigenkapitalanforderungen in der Entnahmephase .................................................... 126 4.4.1 Vorbemerkungen zur empirischen Untersuchung ............................................ 126 4.4.2 Ex post Analyse von Altersvorsorge-Entnahmeplänen ................................... 128 4.4.3 Untersuchung der Eigenkapitalanforderungen im ex ante Kontext ................. 132 4.4.3.1 Untersuchungsansatz und Modellannahmen ....................................... 132 4.4.3.2 Analysen auf Einzelvertragsbasis ....................................................... 135 4.4.3.3 Analysen im Rahmen eines Geschäfts- und Absatzmodells ............... 140 4.4.3.4 Robustheitsanalysen ............................................................................ 145 4.5 Schlussbetrachtung ..................................................................................................... 147 Literaturverzeichnis ............................................................................................................ 149 Lebenslauf ............................................................................................................................. 151 Ehrenwörtliche Erklärung: ................................................................................................. 154
Musik, Musikalität und Musikpraxis übten in allen Epochen der europäischen Kulturgeschichte eine große Faszination auf Künstler, Philisophen und Naturwissenschaftler aus. So setzten sich schon die Kirchenväter des Mittelalters oder Naturforscher wie Johannes Kepler mit musiktheoretischen Fragen auseinander. Seit dem 19. Jahrhundert aber wurde mit dem Aufkommen des Virtuosentums und mit dem Erscheinen von Künstlern wie Franz Liszt und Nocoló Paganini das technische Können des Instrumentalisten immer mehr in den Vordergrund gestellt. Die Konzerthäuser wurden zu einer musikalischen Hochleistungsarena. Ähnlich wie im Leistungssport gilt auch für den Musiker das Prinzip schneller, höher, weiter. Besonders in den letzten zwanzig Jahren sind die Anforderungen, die von Musikhochschulen und Konservatorien bei Aufnahmeprüfungen an die Bewerber gestellt werden, signifikant gestiegen. Die Studenten der Hochschulen und Frühbegabtenklassen werden immer jünger und immer besser. Das bedeutet gleichzeitig, daß schon kleinste Verletzungen und Irritationen – besonders im neurologischen Bereich – eine professionelle Musikerlaufbahn unmöglich machen. Nur geringe Koordinationsschwierigkeiten der Hände, ein Kribbeln oder eine geringe Verlangsammung der Bewegungsabläufe, können die Musikausübung auf so hohem Niveau entscheidend beeinträchtigen. Aus diesem Grund soll sich die vorliegende Arbeit speziell dem Gebiet der neurologischneurochirurgischen Erkrankungen widmen, weil diese das „Steuerungszentrum des Musikers“ – das Gehirn – direkt betreffen. Seit die 90-er Jahre des 20. Jahrhundert zur „Dekade des Gehirns“ erklärt wurden, rückte auch das Gehirn des Musikers in den Aufmerksamkeitsfocus der Neurowissenschaftler. Im Vordergund stand hierbei die Grundlagenforschung, weniger klinische Fragestellungen, die einen betroffenen Musiker direkt betreffen. Daher soll mit der vorliegen Arbeit ein Versuch unternommen werden, die Auswirkungen von neurologischen Erkrankungen, SchädelHirnVerletzungen oder Hirnoperationen auf die Musikausübung aufzuzeigen. Dies soll anhand historischer Fallstudien großer Komponisten vom Barock bis zum 20. Jahrhundert sowie zeitgenössischer MusikerPatienten geschehen. Auf dem Gebiet der Neurochirurgie wurden in den lezten Jahren bedeutende Fortschritte erzielt und neue, schonende Operationstechniken entwickelt. So können Eingriffe am Zentralnervensystem heute immer präziser ausgeführt werden. Die Wahrscheinlichkeit, eine bleibende Behinderung davonzutragen, ist drastisch gesunken, jedoch kann ein solcher Eingriff trotz aller modernen Techniken auch heute noch für eine professionelle Musikerlaufbahn das Aus bedeuten. Problematisch ist, daß es weder aus dem medizinischen noch aus dem musikpädagigischen/musikwissenschaftlichen Bereich Empfehlungen oder Erfahrungen gibt, wie eine neurologische Rehabilitation für den Musiker durchgeführt werden könnte oder wie der Musiker mit einer solchen Erkrankung umgehen sollte. Auch für die technische Arbeit und einen möglichen Wiederaufbau erlernter Fertigkeiten am Instrument gibt es keine Erfahrungswerte. Wie bei jeder Rehabilitation sollte das Ziel sein, seine alten Fähigkeiten und Leitsungsniveaus wiederzuerlangen. Für den Musiker ist es jedoch sehr schwer, diesbezüglich Hilfe und Beratung zu bekommen. In ganz Deutschland gibt es an nur zwei Musikhochschulen Spezialsprechstunden für Musikermedizin, viel zu wenig, wenn man bedenkt, daß es in Deutschland etwa 30 000bis 40 000 Berufsmusiker gibt. Noch schwerer ist es für den Musiker, einen Arzt zu finden, der auf die neurologischen Grundlagen des Instrumentalspiels spezialisiert ist. Bei Verletzung und geplanten Operationen des Gehirns ist daher beim Musiker nicht nur eine neurochirurgische Behandlung notwendig. Schon bei der Planung der Operation muß bedacht werden, welche anatomischen Strukturen des Gehirns für die Musikausübung- und Wahrnehmung von Bedeutung sind und daher so weit wie möglich geschont werden müssen. Die Planung, Durchführung und Nachsorge einer solchen Behandlung macht daher die koordinierte Zusammenarbeit zwischen Patient, Arzt und Musikpädagogen notwendig, um dem betroffenen Musiker eine erfolgreiche Rehabilitation zu ermöglichen. Ziel der Arbeit ist es, anhand von Fallbeispielen Zusammenhänge von neurologischen Funktionen und Musikausübung darzustellen und die Chancen einer erfolgreichen neurologisch- neurochirurgischen Behandlung und Rehabilitation beim Musiker aufzudecken.
Für die geplanten Untersuchungen wurde eine eigene Methode für die Kultur primärer humaner Bronchialepithelzellen etabliert. Die Bronchialepithelzellen wurden aus Lungenteilresektaten durch eine cytologische Bürstung gewonnen. Die verwendeten Kulturschalen wurden mit Kollagen beschichtet. Als serumfreie Kulturmedien wurden ein Expansionsmedium und ein Differenzierungsmedium verwendet. Dabei enthielt das Expansionsmedium proliferationsfördernde Supplemente, was zu einer deutlich gesteigerten Zellausbeute gegenüber der Verwendung handelsüblicher Medien führte. Im Differenzierungsmedium wurden Supplemente verwendet, die für die Differenzierung und Ziliogenese bronchialer Epithelzellen erforderlich sind. Die Kultur erfolgte an einer Luft-Medium-Grenzfläche, die für Bronchialepithelzellen eine physiologische Umgebung darstellt. Die Charakterisierung der Kulturen zeigte keine Verunreinigungen mit Fibroblasten, Muskelzellen oder Zellen mesenchymalen Ursprungs. Das charakteristische kopfsteinplasterartige Erscheinungsbild, sowie der immunhistochemische Nachweis von Cytokeratin 18 belegten den bronchoepithelialen Charakter der Kulturen. In der vorliegenden Arbeit wurde mit der RT-kompetitive Multiplex-PCR (RCMP) eine Technik entwickelt, mit deren Hilfe die Expression von Genen in niedriger Kopienzahl oder aber in Proben mit geringer RNA-Menge nachgewiesen werden kann. Geringe Ausgangsmengen an RNA wiesen vor allem die Primärkulturen von humanem Bronchialepithel, als auch frische Gewebebürstungen des Bronchial- und Nasenepithels auf. Die RCMP basiert auf einer kompetitiven PCR und kombiniert eine exogen interne und endogen interne Standardisierung. Damit wurde die mRNA-Expression von bis zu vier Genen in einem Ansatz analysiert. Die RCMP löst dabei mehrere Probleme herkömmlicher PCR-Verfahren: 1. mRNAs mit hoher oder niedriger Kopienzahl können in einem Ansatz koamplifiziert werden. 2. Die semiquantitative Quantifizierung ist unabhängig von den Syntheseeffizienzen von Target und Referenzgenen. 3. Die RCMP kontrolliert Schwankungen der initialen RNA-Menge. 4. Die Unabhängigkeit der RCMP von der Kenntnis der initialen RNA Menge erlaubt auch die Bestimmung von Probenmaterial in dem nur geringe mRNA-Mengen vorhanden sind. Damit eignet sich die RCMP besonders für Expressionsstudien Materialien wie Bioptaten, Nasal- oder Bronchialbürstungen, sowie den Kulturen primärer Bronchialepithelzellen. Mit Hilfe der RCMP wurden erstmals die mRNA der Osmolyttransporter BGT-1, SMIT und TAUT in Bronchialepithelzellen nachgewiesen. Nach Behandlung mit hyperosmotischen Medien wurde die mRNA-Expression dieser Transporter stark induziert. Bronchialepithelzellen perzeptieren osmotische Belastungen und versuchen, ihnen entgegenzuwirken. Hyperosmotische Belastungen können in Bronchialepithelien zu einer Inflammation ohne zugrunde liegende Infektion führen. Dabei wird zeit- und dosisabhängig sowohl die Sekretion als auch die Expression von IL-8 induziert. An dieser Induktion ist die p38 MAP-Kinase beteiligt. Reaktive Sauerstoffspezies (ROS) sind sowohl an der Induktion der IL-8 Sekretion und Expression beteiligt, als auch an der Aktivierung der p38 MAPKinase. Weiterhin zeigte sich, dass die Induktion der Sekretion von IL-6 und IL-8 abhängig von osmotisch bedingten Änderungen des Zellvolumens ist. Auch hier wird bereits die p38 MAP-Kinase durch das Zellvolumen reguliert. Die Ergebnisse legen ein mögliches Modell für die initialen Vorgänge in der CF-Lunge nahe. Die Veränderungen des Ionenhaushalts bei der cystischen Fibrose, sowie die eingeschränkte Zellvolumenkontrolle bei CF-Zelllinien, weisen darauf hin, dass ein defektes CFTR-Protein zu einer von neutrophilen Granulozyten dominierten Inflammation führen kann, ohne das die Lunge bereits mit Erregern besiedelt wurde.
Through an examination of Joseph Roth’s reportage and fiction published between 1923 and 1932, this thesis seeks to provide a systematic analysis of a particular aspect of the author’s literary style, namely his use of sharply focused visual representations, which are termed Heuristic Visuals. Close textual analysis, supplemented by insights from reader-response theory, psychology, psycholinguistics and sociology illuminate the function of these visual representations. The thesis also seeks to discover whether there are significant differences and correspondences in the use of visual representations between the reportage and fiction genres. Roth believed that writers should be engagiert, and that the truth could only be arrived at through close observation of reality, not subordinated to theory. The research analyses the techniques by which Roth challenges his readers and encourages them to discover the truth for themselves. Three basic variants of Heuristic Visuals are identified, and their use in different contexts, including that of dialectical presentations, is explored. There is evidence of the use of different variants of Heuristic Visuals according to the respective rhetorical demands of particular thematic issues. It has also been possible to establish synchronic correspondences between the different genres, and diachronic correspondences within genres. Although there are examples within the reportage where the entire article is based on an Heuristic Visual, the use of Heuristic Visuals cannot be seen as a key organizing principle in Roth’s work as a whole. As his mastery of the technique reaches its highest point in the early 1930s, Heuristic Visuals are often incorporated into the reconstruction of a complete sensory experience. Analysis of Roth’s heuristic use of visual representations has led to important insights, including a reinterpretation of the endings of Roth’s two most famous novels: Hiob and Radetzkymarsch.
Bei Patienten mit koronarer Herzkrankheit (KHK) wird angenommen, dass es aufgrund der Apoptose von Endothelzellen zu einer Störung des endothelialen Zusammenhaltes kommt, was ein Fortschreiten der Atherosklerose zur Folge hat. Unter normalen Bedingungen bewirkt eine Gefäßwandverletzung eine Mobilisierung von im Knochenmark befindlichen endothelialen Progenitorzellen, was möglicherweise zur Reendothelisation der verletzten Gefäßwand beiträgt. Personen mit kardiovaskulären Risikofaktoren und einer manifesten KHK jedoch haben eine niedrigere Anzahl zirkulierender EPCs. Aus diesem Grund untersuchten wir bei Patienten mit stabiler KHK und mit ACS das Gleichgewicht zwischen zirkulierenden EPC und zirkulierenden apoptotischen maturen endothelialen Zellen (CAEC), und beobachteten, ob Statine ECs bei Patienten mit KHK vor der Apoptose schützen.
Die Bestimmung der EPCs erfolgte mit Hilfe der Durchflusszytometrie (FACS) durch die Inkubation mit CD133 und KOR. Es zeigte sich, dass Patienten mit einem AMI im Vergleich zur Kontrollgruppe die niedrigsten Werte an zirkulierenden EPCs aufwiesen (ca. 3,5fach niedriger), gefolgt von Patienten mit instabiler und stabiler KHK. Die Anzahl zirkulierender ECs hingegen (CD45-negativ, CD146-positiv und vWF-positiv) war bei Patienten mit AMI im Vergleich zur Kontrollgruppe um das 5fache erhöht (P < 0,01).
Um die Anzahl an CAEC zu bestimmen, ermittelten wir mittels einer 4-Kanal-Durchflusszytometrie die Annexin V-positiven Zellen aus CD45-negativen, CD146- positiven und vWF-positiven zirkulierenden Zellen aus peripheren Blutproben von Patienten mit KHK.
Wir konnten zeigen, dass diese Zellen bei Patienten mit AMI im Vergleich zu einem gesunden alters- und geschlechtskompatiblen Probandenkollektiv um das 10fache erhöht waren. (P < 0,05)
Um ein Maß für die veränderte Balance verschiedener Endothelzellen zu erhalten, ermittelten wir einen "Schädigungsindex" (Quotient aus CAEC und EPC), der bei Patienten mit stabiler KHK bereits ein relatives Überwiegen der Apoptose bei unzureichend erniedrigten EPCs anzeigte und bei Patienten mit AMI die ungünstigste Konstellation mit einem um das 30fache erhöhten Index ergab.
Da kardiovaskuläre Risikofaktoren bekanntermaßen die Atheroskleroseentstehung begünstigen, untersuchten wir, ob sie auch Einfluss auf die Anzahl zirkulierender CD133- positiver EPCs haben. In einer multivariaten Analyse blieben die Krankheitsaktivität der KHK und eine positive Familienanamnese als unabhängige signifikante Prädiktoren einer reduzierten Anzahl zirkulierender CD133-positiver EPCs bestehen.
Um die Herkunft der ECs zu bestimmen, wurden selektiv Blutproben aus der Aortenwurzel und der V.cordis mag na untersucht. Patienten mit ACS wiesen einen transkoronaren Anstieg der CAEC um 35% in der V.cordis magna verglichen mit der Aorta auf. Ebenso war bei Patienten mit ACS der "Schädigungsindex" in der V.cordis magna signifikant höher als in der Aorta.
Hydroxymethyl- Glutaryl- Goenzym-A-Reduktasenhibitoren (Statine) senken die kardiovaskuläre Ereignisrate sowohl in der Primär- als auch in der Sekundärprävention kardiovaskulärer Erkrankungen.
Eine retrospektive Studie mit n = 34 Patienten mit KHK zeigte, dass die Anzahl an CAEC bei Patienten ohne Statin signifikant niedriger war als bei den Patienten, die ein Statin bekommen hatten (mittlere Dosis 20mg per os). Zudem zeigte sich bei der Berechnung des Schädigungsindex, dass die Statintherapie eine Abnahme des Quotienten um das 15- fache bewirkte. Um dieses Ergebnis zu bestätigen maßen wir in einer prospektiven Studie die CAEC-Level bei n = 9 Patienten mit KHK vor und nach einer 4- wöchigen Behandlung mit Atorvastatin. Die Behandlung mit Atorvastatin führte zu einer signifikanten Abnahme sowohl der CAEC- Level als auch der prozentualen Apoptoserate.
Zusammenfassend zeigt diese Arbeit, dass bei Patienten mit akuter KHK das Gleichgewicht zwischen EPG und apoptotischen maturen Endothelzellen gestört ist und dass eine Statintherapie das Gleichgewicht zwischen Endothelzellverletzung und vaskulären Reparaturmechanismen in Richtung einer Erhaltung des endothelialen Zusammenhaltes beeinflusst.
Einleitung: Die Arbeit stellt den in der Medientheorie bezüglich neuer Kommunikationsmedien und virtuellen Arbeitsmöglichkeiten im Internet vorherrschenden Mythen die empirischen Befunde der Untersuchung einer medial unterstützten, interdisziplinär und räumlich verteilt praktizierten Forschungskooperation gegenüber. Damit betritt sie Neuland, da der Einsatz neuer Kommunikationstechnologien bisher vor allem im Rahmen organisationssoziologischer Studien im Bereich der Wirtschaft, im Bereich des E-Learnings oder für nicht-wissenschaftliche Nutzergruppen im öffentlich zugänglichen Internet analysiert worden sind. Die Studie offenbart dabei die Wirkmächtigkeit lokal gegebener Bezüge und Relevanzen, welche die immer wieder betonten medial gegebenen Freiheiten eines raumund zeitunabhängigen, global angelegten Agierens weitgehend demontieren. Virtualisierte Kooperationsszenarien und Globalität verkörpern dabei den Mythos der medialen Freiheit, das Lokale dagegen holt diese ideal gedachten Visionen auf den Boden der empirischen Tatsachen mit seinen im soziokulturellen Feld „Wissenschaft“ eingebundenen Akteuren zurück. Dieses Ergebnis birgt wissenschaftspolitischen Sprengstoff, denn extensive Mediennutzung und Interdisziplinarität gelten als zentrales Gebot der Zeit und werden als unumgänglich angesehen – können aber im System Wissenschaft mitunter nicht durchsetzbar sein. Die Studie zeigt, dass die in der Medientheorie und Populärmedien verkündeten Möglichkeiten des universellen Einsatzes von neuen Kommunikations- und Medientechnologien für die sozial- und kulturwissenschaftlichen Forschung relativiert werden müssen: Medien werden schwerpunktmäßig als Fortsetzung traditioneller Arbeitsmethoden, dann jedoch durchaus auch sehr effektiv eingesetzt. Ausgangspunkt der empirischen Erhebung ist die medienphilosophisch gestützte Hypothese, dass sich im Feld der Wissenschaft die in digitalen Medien angelegten Möglichkeiten optimal entfalten können und so gegebene Potenziale in greifbare Nähe rücken, etwa eine neue Dimension von Erkenntnismöglichkeiten durch kollektive Wissensgenese. Die Arbeit befasst sich daher mit Einsatz und Bedeutung computervermittelter Kommunikation in einem interdisziplinär und raumübergreifend etablierten Forschungsverbund, wobei das Hauptaugenmerk auf den praktizierten Modi der medial unterstützten Kooperation liegt. Der Zugang zum Feld erfolgte daher mittels teilnehmender Begleitforschung über einen Zeitraum von zwei Jahren. Die methodische Vorgehensweise ist an einer ethnographischen Forschungsauffassung orientiert und setzt auf eine gegenstandsorientierte Verwendung qualitativer Methoden. Es zeigt sich, dass die erwarteten und aktiv angestrebten positiven Effekte keine selbstständig eintretende Folge der Verfügbarkeit ermöglichender technischer Szenarien sind, die sich etwa in Form vernetzter Computer installieren lassen. Vielmehr bildet die Logik des Feldes Wissenschaft mit seinen darin wirksamen institutionellen Strukturen den maßgeblichen Orientierungsrahmen, an dem die beobachtbare Medienverwendung ausgerichtet wird. So kommt bspw. zum Tragen, dass im Wissenschaftlichen Habitus der Stellenwert einer medialen Präsenz oder technischen Expertise unterbestimmt sind und diese keinen elementaren Bestandteil der üblicherweise praktizierten Forschungstätigkeit bilden. Anstatt einer medial bereicherten Erkenntnisproduktion dominiert so ein pragmatischer Medieneinsatz konzentriert auf das unmittelbar Notwendige. Speziell zugeschnittene digitale Möglichkeitsräume für eine wissenschaftliche Auseinandersetzung (Foren, Wiki, Bild- und Videodatenbank) mit dem gemeinsamen Gegenstand erhalten im untersuchten Feld so den Charakter eines randständigen Schauplatzes und etablieren sich nicht als maßgeblicher Austragungsort der gemeinsamen Diskussion. Unmittelbar aufgabenbezogen einsetzbare Ressourcen dagegen, die bereits in Alltagsroutinen integriert sind wie die E-Mail, haben jedoch ihren festen Stellenwert, etwa in technisch-administrativen Fragen oder im Hinblick auf das laufende Informationsmanagement. In den praktizierten Nutzungsweisen ist somit eine deutliche Dominanz des Schriftlichen im Umgang mit den eingesetzten Informationstechnologien vorherrschend: Für den zeitversetzten medienvermittelten Austausch müssen zur Diskussion stehende Inhalte zunächst in die Textform überführt werden. Phänomene, Themenaspekte oder Materialien, die sich (noch) gegen die Schriftsprache sperren, sind folglich charakterisiert durch „Schweigen“. Schweigen tritt im körperlosen virtuellen Raum und in schriftbasierten Medien jedoch nicht in Erscheinung. Ungeschriebenes ist daher im virtuellen Raum nicht existent und entzieht sich der gemeinsamen, raum- und zeitunabhängigen Bearbeitung. Neue Medien sind als sozial überformte Technologie folglich nicht ausgehend von darüber bereitgestellten Funktionen definierbar. Trotz der Topoi einer digitalen Revolution oder einer Informations- und Wissensgesellschaft, über die das Internet fester Bestandteil der gegenwärtigen materiellen und ideellen Infrastruktur wurde, erhalten die technologischen Artefakte ihre Bedeutung erst in der individuell ausgestalteten Verwendung durch die mit ihr befassten Akteure, wie die Studie über ihren exemplarischen Zugang für den Bereich der sozial- und kulturwissenschaftlichen Forschung zeigt.
Die Überzeugung, dass der Computer nicht als Werkzeug, sondern als Medium zu denken sei, hat in den zurückliegenden Jahren die Debatte zu einer Medientheorie des Computers wesentlich geprägt. Damit war insbesondere eine bestimmte Auffassung des Technischen verbunden. Die Effekte der technischen Medien lassen sich, so der Gedanke, nicht über die Aktivierung anthropologischer Schemata begreifen, vielmehr müssen die Medien in ihrer Technizität ernst genommen werden. Dies heißt aber nichts anderes, als dass der Technik ein Eigenwert zuzugestehen sei, der sich gerade nicht vom Menschen her konturieren lässt. Hierüber diskreditiere sich dann letztlich eine Rede von den Medien als werkzeughaften Extensionen des Menschen. Demgegenüber soll in dieser Arbeit der Vorschlag unterbreitet werden, den Computer eben doch wieder vom Werkzeug her zu denken. Damit soll jedoch keinesfalls über den erreichten Stand medientheoretischer Positionen hinweggesehen werden. Mit dem Medienbegriff umzugehen bedeutet nicht zuletzt, den epistemischen Status mitzureflektieren, den die Medien inne haben. Sie geben den Rahmen vor, in dem sich die Subjekte äußern können. Die Medien strukturieren diese Äußerungen bereits vorab bzw. ermöglichen überhaupt erst bestimmte Äußerungsformen. Sich hierüber Rechenschaft abzulegen bedeutet aber nicht notwendig, die Metapher einer werkzeughaften Nutzung des hoch technischen neuen Mediums als trügerisch verwerfen zu müssen. Gerade diese Nutzungsweise unterscheidet den Computer vom vorherrschenden Medienparadigma des 20. Jahrhunderts, von Film und Fernsehen und dem daraus abzuleitenden Status des Rezipienten als Rezipienten. Die vorliegende Arbeit betreibt also Werbung für einen produktiven Gebrauch des neuen Mediums, wobei es jedoch nicht darum geht, den Computer als eine Art Befreiung von den "Zwängen" der anderen technischen Medien zu positionieren. Sofern Medien überhaupt -- im strengen Sinne – Zwänge ausüben, so wäre doch nicht einzusehen, warum dies beim Computer anders sein sollte. Dennoch: Dass es so etwas wie eine "Creative Commons" gibt, dass es immer selbstverständlicher wird, wenn Nutzer ihre kreativen Produkte nicht nur mit anderen Nutzern teilen, sondern sie es darüber hinaus ermöglichen, dass auf Basis ihrer Produkte weitergearbeitet werden kann, nährt die Vermutung eines sich ändernden Verhältnisses zwischen den Nutzern und den Medien. Zentrales Ziel dieser Arbeit ist daher zunächst, die sich in der Medienwissenschaft bereits etablierte Perspektive auf den Computer als eines Textmediums zu kritisieren, da hierüber allzu leichtfertig eine bestimmte Nutzungsweise des Computers verabsolutiert werden kann: Einzig der programmierende Zugriff gilt als emanzipativ. Daran anschließend möchte ich nach einer kurzen Diskussion des Medienbegriffes das in der Softwareentwicklung lange Zeit bestimmende Gestaltungskonzept der Werkzeugnutzung für eine neuerliche Verwendung in der Medienwissenschaft vorschlagen. Vorteil ist, dass hiermit auch Nutzerpraxen adäquat einbezogen werden können, die sich auf den "Oberflächen" der Software abspielen. Betrachtet man Medien nicht als bloße Übertragungskanäle und versucht man, die produktive Seite von Medientechnologien in den Blick zu nehmen, dann weist die "Botschaft" des neuen Mediums in die Richtung eines Wechsels vom Rezipienten zum Produzenten. In dieser Perspektive erscheinen die Nutzer nicht mehr nur als Anhängsel der Technik. Sie sind nicht von ihr aus zu bestimmen, ebenso wenig wie die Medientechnik rein vom Menschen her zu bestimmen wäre. Um die These einer werkzeughaften Verwendbarkeit des Computers auszuführen, konzentriert sich die vorliegende Arbeit auf bestimmte Texte, die genauer diskutiert und in die Argumentation integriert werden. Dies erscheint mir fruchtbarer als der Versuch, das gesamte Spektrum der neueren Diskussion um den Computer als Medium aufgreifen und synthetisieren zu wollen. Die Gliederung verläuft dementsprechend weitgehend entlang dieser (theoretischen) Referenzen.
Zielsetzung Die vorliegende Arbeit beschäftigt sich mit der Analyse der Hirndruckpulsamplitude (ICPAmpl.) als neuen Parameter zur Bestimmung einer für den cerebralen Perfusionsdruck optimalen Oberkörperlagerung. Unter normalen klinischen Konditionen bleiben die die ICPAmpl. bestimmenden Faktoren – Compliance und Herzschlagvolumen – konstant. Daher ist es durch die Untersuchung der ICPAmpl. möglich, Rückschlüsse auf den cerebrovaskulären Gefäßwiderstand (CVR) und damit den cerebralen Perfusionsdruck (CPP) zu ziehen. Methoden Bei 40 neurochirurgischen Patienten wurden prospektiv Alter, Geschlecht, Erkrankung, Glasgow-Coma-Scale, Ort der Hirndrucksonde und die Beatmungsparameter untersucht. Die Veränderungen des intrakraniellen Drucks (ICP), des cerebralen Perfusionsdrucks (CPP), des mittleren arteriellen Drucks (MAP) sowie der Hirndruckpulsamplitude (ICPAmpl.) wurden bei Oberkörperlagerungen von 0°, 30°, 60°, 30°, 0° gemessen und analysiert. Ergebnisse Insgesamt 36 Probanden erfüllten die Studienbedingungen (n=36), aufgeteilt in 21 Frauen und 15 Männer. Das mittlere Alter betrug 55,5 Jahre (± 2,58). Der Glasgow-Coma-Scale-Wert betrug bei allen eingeschlossenen Patienten 3. Bei dem Vergleich der Messwerte von 0°- und 60°-Oberkörperlagerung zeigte sich eine signifikante Verbesserung des ICP (p<0,001), eine Zunahme der ICPAmpl. (p<0,001), eine Verschlechterung des CPP (p<0,001) sowie eine Reduktion des MAP (p<0,001). Schlussfolgerung Die aus den gemessenen Daten einer liegenden Hirndrucksonde relativ einfach bestimmbare ICPAmpl. lässt wichtige Rückschlüsse auf den cerebralen Vasomotorentonus zu. Bisher war jedoch unklar, ob es einen Zusammenhang zwischen der ICPAmpl. und dem CPP gibt, der für die klinische Routine einer Intensivstation nutzbar ist. Diese signifikante Beziehung der beiden Parameter konnten wir finden und darstellen. Unter der Kenntnis der negativen Korrelation zwischen ICPAmpl. und CPP und da sich die ICPAmpl. bei erhaltenem Vasomotorentonus der cerebralen Arteriolen im Vergleich zu den anderen Parametern (ICP, CPP, MAP) gegensätzlich verhält, sollte sie bei der für den CPP optimalen Oberkörperlagerung möglichst gering sein. Wir konnten in Gegenüberstellung der einzelnen Messwerte bei Lagerung von 0°, 30°, 60°, 30°, 0° den kleinsten Mittelwert der ICPAmpl. bei jeweils 30° finden. Somit scheint uns unter den gemessenen Positionen diese Oberkörperlagerung ein guter Kompromiss zwischen einerseits hohem CPP bei erhaltener cerebraler Autoregulation und andererseits niedrigerem ICP zu sein. Da wir wissen, dass zur Vermeidung von sekundären Hirnschäden eine Konstanthaltung des cerebralen Blutflusses (CBF) von Bedeutung ist, bedingt dies eine erhaltene cerebrale Autoregulation. Bei erschöpftem cerebralen Vasomotorentonus kann eine Erhöhung des CPP unter anderem eine Hyperämie, ein vasogenes Ödem und damit eine sekundäre ICP-Anhebung – mit allen daraus resultierenden Komplikationen – triggern. Deshalb wird die regelmäßige, patientenspezifische Suche nach der Grenze zwischen adäquatem und nicht mehr adäquatem CPP gefordert. Die Position der Oberkörperlagerung ist ein denkbar einfach durchzuführender, kostenneutraler und trotzdem bedeutsamer Therapieaspekt in der neurochirurgischen Intensivmedizin. Auf der Suche nach der optimalen, patientenspezifischen Lagerung könnte sich daher in der klinischen Routine eine einfache, komplikationsarme Messung etablieren. Da wir zeigen konnten, dass eine zunehmende ICPAmpl. mit einem abnehmenden CPP verknüpft ist, könnte die im Vergleich der einzelnen Werte niedrigste ICPAmpl. somit einen wichtigen Beitrag zur optimalen, individuellen Oberkörperlagerung leisten.
Spontaneous carotid artery dissection-associated medial changes in a selected autopsy population
(2006)
Spontaneous carotid artery dissection (SCAD) is a major cause of stroke in young adults, yet its pathogenesis remains unclear. Hereditary connective tissue diseases, hormonal influences, sympathomimetic drugs or upper respiratory tract infections may predispose to dissection. Mechanical stress or minimal trauma may also act as a trigger. Various lesions of the arterial wall have been described in association with SCAD, but no prospective autopsy study to evaluate the presence of these lesions in normal controls was found. We performed a histologic evaluation of the carotid bifurcation and the aortic arch in an autopsy series to establish a baseline anatomy of the bifurcation and to determine whether similar lesions could be observed. In seven of 54 (12.96%) selected cases we observed isolated changes closely resembling those described for medionecrosis, fibromuscular dysplasia, mucoid degeneration and elastinolysis; and in one case, prior carotid artery dissection and coiling with a patent false lumen. Generally, vascular microanatomy in the carotid bifurcation can be highly variable. Lesions similar to those associated with spontaneous dissection are present in controls and appear non-specific for spontaneous dissection. They can be explained as reactive changes of smooth muscle cells (SMC) and the vascular wall in response to various stressors. Recent advances in vascular physiology are discussed to illustrate the concept of SMC phenotypic modulation. Forensic pathology can provide a large control population for extensive vascular analyses and further the understanding of normal and pathological vascular wall changes to help elucidate spontaneous arterial dissection.
Diese Arbeit beschäftigt sich mit dem Wiederaufbau der Stadt Frankfurt in den Jahren 1945 bis 1965. Die wichtigsten Stationen dieser Nachkriegsjahre werden mit der Architektengemeinschaft Alois Giefer und Hermann Mäckler verknüpft. Giefer und Mäckler haben in dieser Stadt viele Bauaufgaben vom Wohnungsbau über den Kirchenbau bis zum Ausbau des Frankfurter Flughafens übernommen. Mit der erstmaligen Präsentation des Gesamtwerkes dieser Architektengemeinschaft soll das Interesse für die Architekten und darüber hinaus auch für die Frankfurter Nachkriegsmoderne geweckt werden. Dieses Anliegen scheint besonders in der heutigen Zeit notwendig zu sein, da diese Architekturepoche in Frankfurt durch Abriß bedroht ist. ...
Ubiquitylation is a three-step process, which results in the attachment of the small protein ubiquitin (Ub) to lysine residues on a substrate protein. SUMO proteins are ubiquitin (Ub)-related modifiers implicated in the regulation of gene transcription, cell cycle, DNA repair and protein localization. The molecular mechanisms by which the sumoylation of target proteins regulates diverse cellular functions remain poorly understood. During my PhD I isolated and characterized SUMO1 and SUMO2 binding motifs. Using Yeast Two Hybrid system, bioinformatics and NMR spectroscopy we defined a common SUMO-interacting motif (SIM) and map its binding surfaces on SUMO1 and SUMO2. This motif forms a β-strand that could bind in parallel or anti-parallel orientation to the β2-strand of SUMO due to the environment of the hydrophobic core. A negative charge imposed by a stretch of neighboring acidic amino acids and/or phosphorylated serine residues determines its specificity in binding to distinct SUMO paralogues and can modulate the spatial orientation of SUMO-SIM interactions. Mutation of the SUMO interacting motif of TTRAP (TRAFS and TNF receptor associated protein) influences both its localization and dynamic behaviour in living cells. Ubiquitin (Ub)-binding domains (UBDs) are key elements in conveying Ub-based cellular signals. UBD-containing proteins interact with ubiquitylated targets and control numerous biological processes including receptor trafficking, DNA repair, virus budding and gene transcription. They themselves undergo UBD-dependent monoubiquitylation, which promotes intramolecular binding of the UBD to the attached Ub and consequently leads to their functional inhibition. During the second part of my PhD I could show that, in contrast to the established ubiquitylation pathway, the presence of UBDs allows the monoubiquitylation of host protein independently of classical E3 ligases. UBDs of different types including UBA, UIM, UBM, NFZ and UBZ, can directly cooperate with E2 Ub-conjugating enzymes to promote monoubiquitylation of their host proteins. Using FRET technology I verified that the E2 enzyme and the substrate directly interact in cells. Moreover, UBD-containing proteins Stam2 and Sts2 promote self-ubiquitylation and not ubiquitylation of other targets or form polyUb chains from free Ub. Our study revealed a yet unappreciated role of E2 enzymes in ubiquitylation reactions of UBD containing proteins.
Evaluation der Effektivität der kombinierten TACE von Bletilla striata (mit und ohne Ligatur) im Vergleich zur TACE ohne Bletilla striata als Therapie des hepatozellulären Karzinoms HCC im tierexperimentellen Modell an der ACI-Ratte. Material und Methoden: Insgesamt wurden 30 ACI-Ratten in drei Gruppen eingeteilt: In Gruppe A (Kontrollgruppe) dienten 10 ACI-Ratten als Kontrolltiere. In Gruppe G und H (Therapiegruppen) wurden jeweils 10 ACI-Ratten als Versuchstiere untersucht. Den Tieren wurde dazu zu Beginn des Versuches ein Tumor implantiert (2mm ³), der aus einem Tier (Spendertumor) außerhal b des eigentlichen Versuches entnommen wurde. Jedem Tier der Therapie- und Kontrollgruppe wurde dieser zwei Kubikmillimeter große Tumor unter die Lebe rkapsel des Lobus sinistra eingepflanzt (Intrahepatische Tumorimplantation, IHTI). Diese Tumorstücke wurden aus dem Spendertumor, der aus Tumorzellen des Morris- Hepatoms 3924A innerhalb von vierzehn Tagen im Spendertier heranwuchs, zugeschnitten. Dreizehn Tage nach der
Tumorimplantation erfolgte eine erste Kernspinuntersuchung (MRT1). Einen Tag später wurde bei den Tieren, durch eine retrograd e Injektion in die A. gastroduodenalis, die
Therapie mit Bletilla striata (BS) begonne n. Es wurde den Ratten mit Sandwichtechnik über einen Zeitraum von 20 Minuten Mitomy cin (0,1 mg) + Lipiodol (0,1 ml) + BS appliziert. In Therapiegruppe G wurde diese Therapie mit und in Gruppe H ohne
Ligatur der A. hepatica propria durchgeführt. In der Kontrollgruppe A wurde die TACE ohne BS und ohne Ligatur angewandt. Es wurden von jedem Tier zwei Kernspinaufnahmen gemacht (MRT 1 und MRT2). Vor der Applikation wurde die erste
(MRT1) und 13 Tage nach der Opera tion wurde eine zweite (MRT 2) der Tiere erstellt. Von jedem Tier wurden anschließend die Kernspinaufnahmen miteinander verglichen und die Volumenzunahmen festgestellt (MRT1 / MRT2 = V1 / V2).
Das Maßgebliche Tumorvolumen vor Applikation (V 1) war in Gruppe G 0,0374 cm 3, in Gruppe H 0,0573 cm 3 und in Kontrollgruppe A 0,0380 cm 3. Nach Applikation (V 2) war das Maßgebliche Tumorvolumen in Gruppe G 0,0355 cm 3 (BS mit Ligatur), in Gruppe H 0,2248 cm 3 (nur BS) und in Kontrollgruppe A 0,3674 cm 3. Das Maßgebliche Verhältnis (V 2 / V 1) war in Gruppe G 1,5324, in Gruppe H 6,2791 und in Kontrollgruppe A 9,1382. Nach Analyse der Daten durch den Dunnett ́s Test (1)(ANOVA), konnte für Therapiegruppe G eine signifikante Eindämmung des Tumorwachstums (P < 0,01) und für Gruppe H keine Eindämmung (P > 0,05) nachgewiesen werden. Nach Student-New man-Keuls Test gab es signifikante Unterschiede zwischen den Gruppen G und A (P < 0,05). Die besten therapeutischen Ergebnisse konnten In Gruppe G erzielt werd en. Keines der Tiere starb während der Implantation bzw. der postoperativen Ph ase, es ließ sich jedoch die Bildung von intrahepatischen Metastasen bei zwei Tieren der Kontrollgruppe feststellen. Schlussfolgerung: Die Effektivität der TACE im tierexperimentellen Modell wird durch die kombinierte Applikation mit Bletilla striata und Ligatur der A.hepaticapropria im Vergleich zur klassischen Anwendung der TACE ohne Modifikation deutlich gesteigert. Bletilla striata ist in der Anwendung für die Chemoembolisation ein wirkungsvolles und verlässliches Embolisat . Es stellt sich nun die Aufgabe, experimentell und klinisch zu verifizieren, in welchem Maße der Einsatz einer Ligatur zum tragen kommt.
Die Börsenindustrie hat in den vergangenen zwei Jahrzehnten einen signifikanten Wandel durchlaufen - und das nicht nur in Deutschland. Börsen haben schon längst nicht mehr den Charakter vergangener Tage, in denen ihre Mitglieder auf dem Parkett um Aktienpakete und -kurse von inländischen Unternehmen feilschten und an den genossenschaftlich organisierten Handelsplätzen eher eine vertrauliche Clubatmosphäre herrschte. Eine Vielzahl der Börsen hat den Parketthandel abgeschafft, ist selbst an einer Börse gelistet und orientiert sich primär am Shareholder Value und somit an den Interessen einer internationalen Aktionärsbasis. Mittlerweile existieren Börsenplätze, die mehrere Länder umspannen. Der französisch dominierten Euronext kommt hier eine Vorreiterrolle zu. Aber auch andere Börsen, wie die Deutsche Börse und die Schweizer Börse, haben länderübergreifend ihre Derivatehandelsplattformen vereinigt und mit ihrem Jointventure Eurex die umsatzstärkste Derivatebörse der Welt geschaffen. In jüngster Zeit werden nun auch transatlantische Allianzen zwischen amerikanischen und europäischen Börsen angedacht. Sowohl die Strategie der Nasdaq, die bisher eine Sperrminorität von über 25% an der Londoner Börse hält, als auch die der New York Stock Exchange, die eine Fusion mit der Euronext anstrebt, belegen dies. Zudem stehen Börsen mittlerweile in direktem Wettbewerb mit ihren Kunden und ehemaligen Eigentümern, den Finanzintermediären wie Banken und Wertpapierhäuser. Sie konkurrieren um Wertpapieraufträge von Investoren, da Banken nicht mehr jede Order automatisch an sie weiterleiten. Stattdessen versuchen manche Finanzintermediäre, die erhaltenen Investorenaufträge im eigenen Haus mit einer entsprechenden reziproken Order zusammenzuführen, um somit die Geld-Brief Spanne des Wertpapiers als Gewinn einzubehalten. Diese Internalisierung von Auftragsausführungen ist seit einigen Jahren insbesondere in England und Deutschland eine bedeutende Einkommensquelle für Wertpapierhäuser geworden. Gleichzeitig stoßen Börsen immer stärker in Geschäftsbereiche vor, die bislang die Domäne ihrer Kunden repräsentierten. Hier sei der Handel von bestimmten Kreditderivateprodukten genannt, die bisher außerbörslich zwischen großen Wertpapierhäusern gehandelt wurden. Sowohl die Chicago Mercantile Exchange als auch die Eurex planen den Handel dieser Titel auf ihren eigenen Plattformen. Ein weiteres Beispiel ist die vertikale Integration von Wertpapierabwicklungs- und Wertpapierverwahrungsgeschäften. Große internationale Banken wie BNP Paribas, Citigroup und State Street kämpfen hier gegen Börsen um Marktanteile. Wie kam es zu dem hier beschriebenen Wandel? Der entscheidende Katalysator ist der gestiegene Wettbewerbsdruck auf traditionelle Börsen, welcher in vielen Fällen zu einer Umstrukturierung ihrer Organisationsform und Eigentümerstruktur führte. Diese neu ausgerichteten Börsen verstanden sich nun als reguläre, gewinnorientierte Firmen, die nicht mehr in erster Linie ihren Kunden, sondern ihren neuen Eigentümern, den Aktionären, verpflichtet waren. ...
Eine Vielzahl an biologischen und medizinischen Studien, die sich mit möglichen Ursachen von Homosexualität beschäftigen, wurden in den letzten 120 Jahren publiziert. Arbeiten aus den Bereichen der Endokrinologie, Morphologie und Genetik werden anhand wissenschaftlicher Kriterien analysiert. Dabei wird gezeigt, dass keine der Arbeiten einer eingehenden Überprüfung standhält. Ein separates Kapitel gibt Auskunft über Homosexualitätsforschung und „Therapieversuche“ an Homosexuellen im nationalsozialistischen Deutschen Reich. Methoden der Erfassung von sexueller Orientierung und Konzepte sowie die Entstehungsgeschichte des Begriffs Homosexualität werden vorgestellt. Weiterhin werden Motive und Risiken biomedizinischer Homosexualitätsforschung diskutiert. Eine Erklärung für das Missverhältnis zwischen der Popularität der publizierten Ergebnisse und ihrer wissenschaftlichen Qualität wird gesucht. Der Autor legt dar, dass mit der erstmaligen Erwähnung der gleichgeschlechtlichen Liebe in der medizinischen Literatur die Kategorie „des Homosexuellen“ als Sammelbegriff für ein amorphes kulturelles Phänomen erst konstruiert wurde. In der unreflektierten Adaptation dieser Kategorie durch die Naturwissenschaften unter der Annahme, sie reflektiere eine biologische Gegebenheit, sieht er das bisherige und zukünftige Scheitern der biomedizinischen Homosexualitätsforschung begründet. Abschließend wird die Frage nach der Berechtigung dieser Disziplin gestellt.
Der zunehmende Emigrantenzustrom bedeutet auch eine Zunahme an fremden Drogen in unseren Breitengraden. Kath, eine Droge, welche mehrheitlich im vorderen Orient verzehrt wird, hat so den Weg zu uns gefunden. Kathkonsumenten mit auffälligem Fahrverhalten werden durch die Polizei gestoppt und es gibt Anfragen der Gerichte an die forensischtoxikologischen Sachverständigen zu dieser Droge, da Kath unter den im § 315, 316 StGB genannten Begriff der „anderen berauschenden Mitteln“ fällt und somit Klärungsbedarf bestand in wie weit Kath als Droge die Fahrtüchtigkeit beeinflusst oder einschränkt. Gerade zum Thema Fahren unter Katheinfluss gab es keine Literatur, so dass eine Pilotstudie konzipiert wurde, um mit Methoden aus dem Bereich des MPU-Verfahrens diese Problematik zu untersuchen. Zur Untersuchung des Einflusses von Kath auf den Menschen wurde eine Pilotstudie mit vier Probanden durchgeführt, diese mussten eine Stunde lang authentisches Kath kauen, danach über einen Tag verteilt verschiedene Tests absolvieren, sich Blut und Vitalparameter untersuchen lassen. Der Untersuchungsablauf erfolgte nach einem festgelegten Schema. Zu den Testsystemen zählte das Wiener Determinationsgerät, der d2-Durchstreichtest, sowie die Befindlichkeitsskala. Es wurde ein routineanalytisches Verfahren etabliert, womit die Alkaloide des Kath mittels Festphasenextraktion und nach Derivatisierung gaschromatographisch-massenspektrometrisch im Blut analysiert wurden, die Quantifizierung erfolgte nach Kalibration mit Referenzsubstanzen. Das Verfahren wurde validiert und es zeigte sich, dass keine Störungen durch Matrixbestandteile auftraten, so dass die Alkaloide eindeutig detektiert werden konnten. Weiterhin wurde eine Stabilitätsstudie durchgeführt, um die Lagerungsbedingungen zu optimieren, insbesondere für das instabile Cathinon. Um authentische Fälle besser interpretieren zu können, erfolgte die pharmakokinetische Auswertung der Alkaloide aus dem Blut der Probanden. Es zeigte sich, dass bei der Konsumform des Kauens mehr als 90% der Alkaloide aus dem Blattmaterial aufgenommen wurden. Bei den Plasmakonzentrationen wurden Norephedrin und Cathin über 54 Stunden im Blutserum nachgewiesen, Cathinon weniger als 12 Stunden. Maximale Plasmakonzentrationen wurden (tmax) im Durchschnitt nach 2,3h (Cathinon) erreicht, 2,6h (Cathin) und 2,8h (Norephedrin). Die pharmakokinetische Auswertung zeigte, dass die Verteilung und Elimination am besten durch ein Zwei-Kompartiment-Modell mit Zweisegmentabsorbation charakterisiert war, wobei im ersten Segment am meisten absorbiert wurde (über 77%), höchstwahrscheinlich über die mucösen Membranen der Mundschleimhaut. Die psychophysischen Leistungstests zeigten im Falle des WD und des d2-Tests eine marginale Zunahme der richtig bearbeiteten Zeichen, wahrscheinlich durch einen Lerneffekt bedingt. Der Befindlichkeitstest zeigte nach über 3 Stunden eine Befindlichkeitsverschlechterung an. Bei den Blutdruck- und Pulsmessungen kam es zu keinen deutlichen Abweichungen. Insgesamt wurden keine eindeutigen psychophysischen Veränderungen festgestellt, was auf die aus ethischen Gründen bei der Pilotstudie verwendete geringe Drogenmenge und die fehlende Kontrollgruppe zurückzuführen sein dürfte. In Ergänzung zur Probandenstudie wurden Befunde an Kathkonsumenten in 39 forensischen Fällen ausgewertet und hinsichtlich der angeblichen Aufnahmemenge der Droge, der Alkaloidkonzentrationen im Blutserum und den Polizei- und Dienstarztaussagen interpretiert. Eine Korrelation zwischen Alkaloidkonzentrationen im Blut und den psychophysischen Defiziten wurde nicht gefunden. Die Auswertung zeigte, dass bei 54% der Betroffenen Reaktionen, die an amphetamininduzierte Zustände erinnern, wie Tremor, Nervosität, vegetative Symptome (Pupillenveränderungen, trockener Mund), Apathie, Beeinträchtigungen beim Stehen und Laufen auftraten. Andererseits wurden bei, laut eigener Angaben, chronischem Kathabusus (35%) häufig keine oder nur geringe Ausfallserscheinungen festgestellt. Aufgrund der hier erhobenen Befunde muss man schlussfolgern, dass sich durch Kath drogeninduzierte Zustände hervorrufen lassen, die allerdings in der Probandenstudie aufgrund des Studiendesigns nicht produziert werden konnten. Die bei authentischen Konsumenten beobachteten erheblichen Ausfälle in der Leistungsfähigkeit belegen eindeutig, dass Kath als „berauschendes Mittel“ klassifiziert werden muss. Bei den Kath-Konsumenten handelte es sich ausnahmslos um Personen mit Emigrationshintergrund, welche Kath gewohnheitsgemäß chronisch anwenden und bei denen die Einsicht fehlt, auf diese Droge zu verzichten. Für die Widerherstellung der Fahreignung ist daher bei nachgewiesenem Kathabusus in Verbindung mit Verkehrsdelikten eine strenge Abstinenz gemäß den Leitlinien zur Fahreignungsbegutachtung zu fordern. Die Erkenntnisse dieser Arbeit wurden unter anderem für ein Gutachten für den Bundesgerichtshof zur Bestimmung der „nicht geringen Menge“ für Cathinon herangezogen und im Urteil vom 28.Oktober 2004 (BGH, Urteil vom 28.10.04-4 StR 59/04- LG Münster) gewürdigt.
Erhöhte Faktorenaktivitäten der Gerinnungsfaktoren VIII und IX standen seit längerer Zeit in dem Verdacht, unabhängige thrombophile Risikofaktoren darzustellen. Die Studienlage hierzu ist bzgl. der Wahl der untersuchten Kollektive, der Messmethoden, sowie der berücksichtigten Einflussgrößen uneinheitlich. Daher wurde die vorliegende Studie durchgeführt, um zum einen in einem Normalkollektiv die die Faktorenaktivität möglicherweise beeinflussenden Störgrössen wie Body Mass Index (BMI) oder ein steigendes Lebensalter zu definieren, und um andererseits die Häufigkeit erhöhter Faktor VIII und IX Aktivitäten bei Patienten mit venösen Thrombosen unter Berücksichtigung dieser Störgrössen im Vergleich zum Normalkollektiv exakt zu analysieren. Es wurden 500 Blutspender konsekutiv als Normalkollektiv eingeschlossen. Diesem wurde ein Patientenkollektiv von 374 konsekutiven Patienten mit venösen Thrombosen gegenübergestellt. Beide Kollektive wurden an Hand eines einheitlichen, standardisierten Fragebogens bezüglich ihrer Eigen- und Familienanamnese befragt. Darüber hinaus erfolgte eine Blutentnahme unter standardisierten Bedingungen. Als Messmethode für die Faktorenaktivität von Faktor VIII und IX wurde ein Einstufengerinnungstest verwendet, hierbei wird die Aktivität eines einzelnen Gerinnungsfaktors gemessen. Alle zu untersuchenden Plasmen wurden auf Lupusantikoagulantien getestet, um Probanden und Patienten mit positiven Lupusantikoagulantien von den weiteren Berechnungen ausschließen zu können, da Lupusantikoagulantien die Faktorenmessergebnisse verfälschen können. Dies wurde in den bisherigen Veröffentlichungen nicht berücksichtigt. Mit Hilfe des Normalkollektives wurde die 90% Perzentile als Cut Off für erhöhte Faktorenwerte definiert (FVIII = 158%; FIX = 151%). Bei Analyse des Faktors VIII konnten mit Hilfe einer linearen Regressionsanalyse folgende Störgrössen als relevant für die Faktorenaktivität innerhalb des Normalkollektives beschrieben werden: Raucher wiesen signifikant niedrigere Faktor VIII – Aktivitäten als Nichtraucher auf, während ein steigender BMI und ein steigendes Lebensalter zu signifikant höheren Faktor VIII -Aktivitäten führten. Ein Einfluss des Geschlechtes, sowie ein signifikanter Einfluss oraler Kontrazeptiva auf die Faktor VIII - Aktivitäten konnte nicht nachgewiesen werden. Die Aktivitäten des Faktor IX zeigten im Normalkollektiv ebenfalls eine Abhängigkeit von steigendem Lebensalter, höheren BMI Werten sowie im Gegensatz zur Faktor VIII – Aktivität auch von der Einnahme oraler Kontrazeptiva, wobei alle diese Zustände zu signifikant höheren Faktor IX Aktivitäten führten. Ein Vergleich der Höhe der Faktor VIII – Aktivitäten der Patienten mit venösen Thrombosen zum Normalkollektiv konnte leider nicht durchgeführt werden, da festgestellt wurde, dass eine unterschiedlich lange Lagerzeit der tiefgefrorenen Plasmaproben der Patienten zu einem Absinken von erhöhten Faktor VIII – Aktivitäten führen kann. Dies wurde in der Literatur bisher nicht beschrieben und war daher zu Beginn der Studie nicht bekannt. Im Gegensatz hierzu blieben die erhöht gemessenen Faktor IX – Aktivitäten auch nach einer längeren Lagerzeit stabil, so dass hier eine Risikoberechnung für erhöhte Faktor IX – Aktivitäten in Bezug auf das Auftreten venöser Thrombosen mit einer korrigierten Odds – Ratio erfolgen konnte. Die für BMI, Alter und Geschlecht korrigierte Odds Ratio betrugt 3,98 mit einem 95% Konfidenzintervall von 2,5 – 6,3. Es ist somit von einem ca. 4 fach erhöhten relativen Risiko für venöse Thrombosen bei erhöhten Faktor IX – Aktivitäten auszugehen, so dass diese einen neuen thrombophilen Risikofaktor für venöse Thrombosen darstellen.
Die Tracheotomie langzeitbeatmeter Patienten hat sich als integraler Bestandteil der modernen Intensivtherapie etabliert. Die von Ciaglia et al. 1985 beschriebene perkutane Dilatationstracheotomie (PDT) erwies sich als sichere, komplikationsarme und wenig zeitaufwendige Alternative zum konventionellen, offenen Vorgehen. Ausgehend von der PDT wurden bis 2001 drei weitere perkutane Tracheotomietechniken im klinischen Alltag verwendet: 1990 die von Griggs vorgestellte Guide- Wire- Dilating- Forceps Technik (GWDF), 1997 die translaryngeale, retrograde Technik nach Fantoni (TLT) und 1999 die modifizierte single-step Technik nach Ciaglia mittels des speziellen Blue Rhino®– Dilatators (CBR). Ziel der vorliegenden klinischen Untersuchung war es, ob eine Lernkurve für die vier Verfahren besteht und sie hinsichtlich ihrer Komplikationen und Praktikabilität zu vergleichen. Bei insgesamt 200 Intensivpatienten wurde unter Beachtung der absoluten Kontraindikationen bettseitig eine elektive perkutane Tracheotomie unter fiberoptischer Kontrolle durchgeführt. Jede der vier Methoden (PDT, GWDF, TLT, CBR) kam bei jeweils 50 Patienten, die chronologisch in zwei Kohorten (Gruppe A: Patienten 1-25, Gruppe B: Patienten 26-50) aufgeteilt wurden, zur Anwendung. Erfasst wurden die Dauer des Eingriffs und alle perioperativen Komplikationen, beginnend unmittelbar vor dem Eingriff bis 48 Stunden danach. Die Komplikationen wurden zunächst den Kategorien intraoperativ und postoperativ zugeteilt, dann wiederum unterschieden in medizinische und technische und in die drei Schweregrade leicht, mittel und schwer eingeordnet. Alle Verfahren waren schnell durchführbar. Bezogen auf das Gesamtkollektiv erwies sich die CBR als schnellste durchführbare Methode, gefolgt von der GWDF, der PDT und der TLT. Die Eingriffsdauer verkürzte sich bei allen Methoden außer bei der CBR in der zweiten Kohorte im Vergleich zu ersten. Bei den 200 perkutanen Tracheotomien traten insgesamt 3 schwere Komplikationen auf (1,5%), alle medizinischer Natur, 13 mittelschwere Komplikationen (7,5%), etwa zur Hälfte technisch und zur Hälfte medizinisch, und 38 leichte Komplikationen (19%), auch in etwa zur Hälfte technisch und medizinisch. Kohortenabhängig ergab sich bei allen Verfahren bis auf die PDT ein Rückgang der Gesamtkomplikationen in den Gruppen B im Vergleich zu den Gruppen A. Aufgeschlüsselt nach medizinisch und technisch ging der Anteil der technischen Komplikationen im Vergleich zu dem Anteil der medizinischen Komplikationen stärker zurück. Als Schlußfolgerung ergibt sich, daß alle vier Methoden der perkutanen Tracheotomie schnell durchführbar sind und eine niedrige Komplikationsrate aufweisen. Die seltenen schweren Komplikationen sind offenbar nicht durch Übung und zunehmendes Beherrschen der Technik vermeidbar. Legt man als Kriterium für die Erlernbarkeit einer Tracheotomiemethode die Komplikationsrate und die Dauer des Eingriffs zugrunde, so legt diese Untersuchung nahe, dass jeweils für alle vier untersuchten Verfahren der perkutanen Tracheotomie eine Lernkurve existiert.
Es ist seit ein paar Jahren bekannt, dass es bei amblyopen Patienten neben Vi-susverlusten, einer exzentrischen oder unruhigen Fixation und einer ganzen Reihe weiterer Phänomene, zu einer gestörten Lokalisation (Verzerrung und Unsicher-heit) im amblyopen Auge kommt. Lokalisationsstörungen behindern die visuelle Wahrnehmung und die Visuomotorik der Betroffenen. Darüber hinaus gibt ihr ge-naues Studium Informationen über die Ausprägung der Amblyopie und erlaubt Überlegungen zur Amblyopieentstehung. Die Forschungseinheit „Sehstörungen des Kindesalters“ an der Augenklinik der Universität Frankfurt am Main, in der die-se Doktorarbeit durchgeführt wird, beschäftigt sich u. a. mit der visuellen Lokalisa-tion bei Kindern. Mit einer für diesen Zweck entwickelten Methode [Fronius et al. 1995] wird die visuelle Lokalisation bei normalsichtigen und amblyopen Kindern erfasst [Fronius et al. 2000, 2004]. Ziel dieser Arbeit ist die Ergänzung der vorhandenen Daten und die Auswertung nach neuen Gesichtspunkten. Die Studie untersucht Lokalisationsstörungen im Führungsauge und befasst sich erstmalig damit, ob und inwiefern solche Lokalisa-tionsstörungen auch bei der binokularen Lokalisation vorkommen. Sie präsentiert die Ergebnisse, die schielamblyope (n=32) sowie normalsichtige Kinder (n=35) im Alter von 4,5 bis 10 Jahren bei der vertikalen relativen Lokalisation monokular und binokular erzielen. Verwendet wird die durch Fronius und Mitarbeiter 1995 entwor-fene –aktive– Testmethode, die aus einer Kombination von zwei früheren Testver-fahren für Erwachsene [Bedell & Flom 1981, Fronius & Sireteanu 1989] hervorge-gangen ist. Darüber hinaus wird analysiert, inwieweit der Visus, Faktoren aus der klinischen Geschichte (Zeitpunkt der Brillenverordnung, Vorbehandlung durch Okklusionstherapie) und Begleitphänomene wie ein latenter Nystagmus eine Rolle spielen. Dabei ergibt sich, dass die Führungsaugen der hier untersuchten amblyopen Kin-der eine ähnlich genaue relative vertikale Lokalisation zeigen wie die normalsichti-ge Kontrollgruppe. Dagegen ist der Visus in den Führungsaugen signifikant niedri-ger als der der Kontrollkinder (Einzeloptotypenvisus: p=0,0007, Reihenvisus: p=0,005). Die Führungsaugen sind demnach keine „normalen“ Augen, was den Visus betrifft, zeigen jedoch keine messbar gestörte Positionswahrnehmung. Möglicherweise handelt es sich hier um zwei von einander unabhängige Phänomene – Lokalisationsstörungen und Visusminderung – , die im amblyopen Sehsystem an-zutreffen sind. Eventuell spielen aber auch die verwendete Testmethode und das junge Alter der Probanden eine Rolle. Laut Krieter [2000] machen Kinder in die-sem Test signifikant größere Fehler als Erwachsene, was das Herausstellen von eventuell vorhandenen Effekten erschweren könnte. Der Vergleich der monokularen und der binokularen Lokalisation ergibt unter den vorhandenen Untersuchungsbedingungen bei der normalsichtigen Kontrollgruppe keine signifikanten Unterschiede. Ein binokularer Summationseffekt liegt nicht vor. Auch bei den Schielamblyopen entspricht die monokulare der binokularen Lokali-sationsgenauigkeit. Allerdings ist die binokulare Lokalisation bei den Amblyopen wesentlich ungenauer als bei der Kontrollgruppe, die Unsicherheit ist bei ihnen signifikant (p=0,009) und die Verzerrung tendenziell (p=0,07) größer. Es werden also bei Mitgebrauch des amblyopen Auges, binokular, Unterschiede zwischen den amblyopen Kindern und der Kontrollgruppe deutlich. Dies spricht für eine leichte Störung durch das amblyope Auge bei der binokularen Lokalisation. Ein Vorteil ergibt sich nach den Ergebnissen dieser Arbeit für die Kinder mit Okklusionstherapie in der Vorgeschichte (n=7) betrachtet man den Visus im amblyopen und im Führungsauge. Ein Einfluss der Okklusionstherapie auf die Lo-kalisation stellt sich nicht heraus. Der Zeitpunkt der Brillenverordnung (Brille vor dem 2. Lebensjahr: n=10, Brille nach dem 2. Lebensjahr: n=20) beeinflusst nach unseren Ergebnissen weder den Visus noch die Lokalisationsergebnisse der un-tersuchten Kinder. Diese Arbeit erweitert das Wissen über die Leistungen von schielamblyopen und normalsichtigen Kindern bei Lokalisationsaufgaben und zeigt erstmals Daten der binokularen Lokalisation.
Einleitung: In der vorliegenden Studie wurde die laparoskopisch durchgeführte Thermoinzision der Ovarialoberfläche, eine operative Behandlungsmöglichkeit des polyzystischen Ovarsyndroms (PCOS), im Hinblick auf die Auswirkungen auf Zyklustempus und Fertilität untersucht.
Material und Methode: Zwischen März 1999 und April 2002 unterzogen sich 55 PCOS-Patientinnen, mittleres Alter 30,4 Jahre, im Zentrum für Frauenheilkunde und Geburtshilfe der Universitätsklinik Frankfurt am Main und in der Abteilung für gynäkologische Endokrinologie und Fertilitätschirurgie im Bürgerhospital Frankfurt am Main einer Thermoinzision der Ovarialoberfläche. Alle Patientinnen litten an unerfülltem Kinderwunsch, 20 von ihnen hatten zusätzlich einen unregelmäßigen Menstruationszyklus, 7 gaben eine vermehrte Behaarung. 16 Patientinnen hatten sowohl einen unregelmäßigen Menstruationszyklus als auch Hirsutismus. 37 Patientinnen hatten bereits vor der Operation frustrane Hormonbehandlungen hinter sich. Bei 18 Patientinnen wurde die Thermoinzision der Ovarialoberfläche als primärer Therapieansatz im Rahmen einer Laparoskopie zur Sterilitätsdiagnostik gewählt. Die Nachbeobachtung fand durch schriftliche Befragung und das Einsehen der Krankenblätter und der Operationsberichte statt. Der Fragebogen umfasste im Wesentlichen drei Punkte: 1) Die allgemeine Zufriedenheit mit der Behandlung 2) Den Behandlungserfolg zum Zeitpunkt der Befragung im Vergleich zu vor der Operation (Schwangerschaften, Zyklusregelmäßigkeit, Hirsutismus) 3) Die zusätzlich zur Thermoinzision der Ovarien in Anspruch genommenen Behandlungen (z.B. Medikamente) Die mittlere Nachbeobachtungszeit betrug 31 Monate.
Ergebnisse: Die Schwangerschaftsrate nach durchgeführter Thermoinzision betrug in dieser Studie 51%. Davon traten 90% innerhalb des ersten postoperativen Jahres auf. Der Anteil der Patientinnen mit regelmäßigem Zyklus stieg von 35% auf 58%. Damit war der Einfluss der Thermoinzision auf den Menstruationszyklus signifikant Bei 39% kam es zur Verbesserung des Hirsutismus. Die Abortrate nach Thermoinzision lag in dieser Studie bei 21%. Insgesamt waren 85% der operierten Patientinnen zufrieden bis sehr zufrieden mit dieser Behandlungsmethode. In der Gruppe der Patientinnen mit Nikotinkonsum sind 36% schwanger geworden, im Gegensatz zur Nichtrauchergruppe mit einer Schwangerschaftsrate von 57%. Zwischen Body Mass Index und postoperativer Zyklusregelmäßigkeit / Schwangerschaftsrate, sowie zwischen Alter und postoperativer Zyklusregelmäßigkeit / Schwangerschaftsrate bestand kein Zusammenhang.
Diskussion und Schlussfolgerung: Die Thermoinzision der Ovarialoberfläche ist eine effektive Methode zur Behandlung von Zyklusunregelmäßigkeiten und Sterilität bei PCOS-Patientinnen. Zudem zeigt sie auch Erfolg in der Behandlung des Hirsutismus bei diesen Patientinnen. Da es sich um einen operativen Therapieansatz handelt, sollte die Thermoinzision als Therapie der zweiten Wahl, nach versuchter medikamentöser Therapie, eingesetzt werden.
Im Rahmen der vorliegenden retrospektiven Arbeit wurden die, bezogen auf die diagnostischen Möglichkeiten der peripheren Gefäßkrankheiten, Aufnahmequalitäten der als Goldstandard zu beurteilenden Untersuchungsmethode der intraarteriellen Digitalen Subtraktionsangiographie (i.a. DSA) mit der trotz bereits jahrelanger Anwendung immer noch „innovative“ Methode der kontrastmittelunterstützten Magnetresonanzangiographie verglichen. Insbesondere wurde die Frage der Qualität der Interventionsplanung und der Aspekt der aus den durch die Unterschiede der Imagequalität entstehenden Konsequenzen für den Patienten beleuchtet und so der Stellenwert für die KM-MRA in der präinterventionellen Diagnostik evaluiert. Die Bedeutung der kritischen Auseinandersetzung mit den beiden Untersuchungsmethoden liegt in den, durch die mögliche Ablösung der i.a. DSA aus der Position des Goldstandards, entstehenden Vorteilen für den Patienten. Zu nennen sind der Wegfall der Strahlenbelastung und des invasivinterventionellen Risikos, die renale Entlastung und die Verkürzung des Krankenhausaufenthaltes. Als zusätzlicher eindeutiger Nutzen der KM-MRA kann die gleichzeitige Aufnahme mehrerer Gefäßsegmente, durch die z.B. in dieser Studie 23 nicht vermutete zusätzliche Gefäßläsionen enttarnt werden konnten, gesehen werden. Im Zeitraum von Januar 2001 bis Dezember 2002 wurden 100 Patienten mit Gefäßläsionen und einer klinischen Symptomatik der Claudatio intermittens, eingeteilt nach Fontaine I-IV, durch beide Diagnosemethoden untersucht. Beide Untersuchungsmethoden wurden zur Sicherstellung der gleichen morphologischen Pathologie innerhalb von 4 Wochen durchgeführt. Dabei wurden von Observer 1 insgesamt 871 (Observer 2: 845) Stenosen in der KM-MRA und in der i.a. DSA Observer 1: 848 (Observer 2: 887) diagnostiziert. In 90,01%(=Observer 1) der Fälle stimmten die Befunde der beiden Aufnahmetechniken überein (Observer 2: 93,14%). Ein zusätzlicher Informationsgewinn durch die KM-MRA ließ sich ausschließlich bei Observer 1 mit 2,64% evaluieren. Anhand der guten Ergebnisse dieses großen Kollektivs, des hohen Positiven Vorhersagewertes von über 97,36% (bzw. 100%), sowie den insgesamt beachtlichen statistischen Werten für die Sensitivität, die Spezifität, Kappa und die Signifikanz, ist die KM-MRA mit Gadolinium (Gadobutrol=Gadovist) in hochdosierter 1,0 molarer Konzentration und die hier verwendeten technischen Möglichkeiten wie Tischverschiebung und der peripheren MRA-Spule eine exzellente Screening- und Nachuntersuchungsmethode bei der pAVK. Durch die im Vergleich mit der i.a. DSA ebenfalls akkurate Diagnostik mit insgesamt 11 therapeutisch-relevanten Abweichungen, gilt die KM–MRA als eine nichtinvasive empfehlenswerte Alternative zur Abstimmung der präinterventionellen Therapieplanung. Gerade für Patienten mit einer Re-stenose oder einer Re-okklusion ergibt sich mit der KM-MRA eine akkurate nicht-invasive diagnostische Alternative und eine Erleichterung der Behandlungsplanung.
Leukämien sind maligne Erkrankungen des hämatopoietischen Systems, die teilweise mit einer sehr schlechten Prognose einhergehen. Die Phänotypen sowie die verursachenden Mutationen in den hämatopoietischen Vorläuferzellen sind vielfältig. 5-10 % aller Akuten Leukämien korrelieren mit genetischen Veränderungen des MLLGens auf Chromosom 11q23. Besonders häufig findet man reziproke, chromosomale Translokationen. Leukämien mit diesen Mutationen zählen fast ausschließlich zu den Hochrisiko-Leukämien, wobei der Partner des MLL-Gens Einfluss auf den Verlauf der Erkrankung hat. Bisher sind 43 Translokationspartner des MLL-Gens bekannt, von denen jedoch in der Routinediagnostik nur die 6 häufigsten, MLLT2, MLLT1, MLLT3, MLLT4, ELL und MLLT10 untersucht werden. Seltene oder unbekannte Partnergene werden von den Analysen ausgenommen. Da das Partnergen aber wichtig für die Risikoeinstufung der Erkrankung ist, ist es notwendig, dieses rasch zu identifizieren, um ein optimales Therapieprotokoll anwenden zu können. Aus diesem Grund wurde eine universelle, PCR-Methode entwickelt und etabliert, die es erlaubt, jede MLL-Translokation, auch ohne vorherige Kenntnis des Partnergens, zu identifizieren. Mit Hilfe dieser Methode ist es möglich, sowohl das Partnergen, als auch den chromosomalen Bruchpunkt basengenau auf DNA-Ebene zu analysieren. Mit dieser Technik sind im Verlauf der Studie 501 Patienten untersucht worden (319 Kinder, 179 Erwachsene, 3 ohne Altersangabe). Bei diesen Analysen wurden 9 neue Partnergene entdeckt: ACACA, SELB, SMAP1, TIRAP, ARHGEF17, BCL9L, KIAA0284, MAML2 und APBB1IP. Für alle positiven Patientenproben sind außer den Partnergenen auch die basengenauen Bruchpunkte kartiert worden. Die Kenntnis des Patienten-spezifischen Bruchpunktes erlaubt eine exakte Quantifizierung der Blastenlast mittels qPCR und ermöglicht somit ein empfindliches Monitoring des Krankheitsverlaufs unter Therapie und die Detektion einer minimalen Resterkrankung (MRD).
Im Rahmen dieser wissenschaftlichen Arbeit wurden retrospektiv die Daten von Patienten mit peripherer arterieller Verschlusskrankheit und subtotalen Stenosen oder Okklusionen im Bereich der Becken- oder Beinstrombahn und erfolgter perkutanen Rekanalisationen evaluiert. Hierbei erfolgte eine Läsionsklassifikation gemäß einer modifizierten Einteilung der Läsionen nach dem Transatlantic-Inter-Society-Consensus (TASC) Dokument. Hierzu wurden neben dem primären technischen Erfolg sowie die primäre Offenheitsrate auch die vaskulären Risikofaktoren, die Begleitmedikation sowie der Langzeitverlauf analysiert. Insbesondere sollte ein Vergleich der Ergebnisse zwischen der femoropoplitealen und der iliakalen Region hinsichtlich der Langzeitergebnisse analysiert werden. Diese differenzierte Betrachtung ist insbesondere wichtig, da eine einheitliche Therapieempfehlung für die infrainguinale Gefäßrekanalistion noch kontrovers diskutiert wird. Nach TASC sind die in der eigenen Arbeit hauptsächlich untersuchten Läsionsarten nur eingeschränkt mittels PTA und zusätzlicher Stentimplantation zu therapieren. Für diese Art von Läsionen wird vielmehr eine gefäßchirurgische Therapie empfohlen. Das Ziel dieser Untersuchung war, zu evaluieren, ob die perkutane Intervention bei iliakalen und femoropoplitealen Okklusionen bzw. hochgradigen Stenosen einen akzeptablen technischen Erfolg und primäre Offenheitsrate (PPR) erbringt. Gleichzeitig wurde analysiert, wie die PPR bei den verschiedenen Gefäßsegmenten unter dem Einfluss von Risikofaktoren und von Stentimplantationen variierte. In der vorliegenden Studie wurden in der Zeit von Januar 1999 bis April 2004 168 Patienten mit pAVK in unterschiedlichen Stadien beobachtet. Alle Patienten hatten einen Stenosegrad von >95% bzw. eine Gefäßokklusion. Somit galt es, 38 subtotale Stenosen und 130 Okklusionen zu therapieren. 54 Läsionen lagen im Bereich der A. iliaca communis (AIC) oder der A. iliaca externa (AIE). Iinfrainguinal waren 114 Läsionen in der A. femoralis superficialis lokalisiert. Zur perkutanen Rekanalisation wurde entweder die perkutane transluminale Angioplastie (PTA) oder die Laser assistierte Angioplastie (PTLA) angewendet. In 160 Fällen wurde eine Stentimplantation durchgeführt. In 76% der Patienten lag eine TASC C- (48%) oder TASC D-Läsion(28%) vor. Für die perkutane Therapie konnte ein technischer Erfolg von 96,5% in der infrainguinalen Region und von 96,3% im iliakalen Segment erzielt werden. In beiden Gefäßgruppen zeigten Stenosen gegenüber Okklusionen bessere Werte. Postinterventionell erfolgten Nachuntersuchungen einen Tag sowie 1, 3, 6, 12, 24 und 36 Monate nach dem Eingriff. Im Zuge dieser Kontrollen wurde auch die aktuelle Medikamentenanamnese erhoben. Die Evaluierung der Offenheit des therapierten Gefäßes erfolgte mittels farbkodierter Duplex-Untersuchung der Extremitäten sowie durch die Bestimmung des Tibio-brachialen Quotienten (TBQ). Die Nachuntersuchungen wurden von den Partnern des Gefäßzentrums (Abteilung für Angiologie) der Universitätsklinik Frankfurt am Main durchgeführt. Bis zum Ende des Nachbeobachtungszeitraumes traten 48 primäre Rezidive in den zuvor behandelten Gefäßsegmenten auf. Für die gesamte Population lag die primäre Offenheitsrate somit bei 71,4%. Unterteilt auf die beiden Gefäßsegmente konnte eine femoropopliteale Offenheit von 61,4% und eine iliakale von 92,5% ermittelt werden. Für beide Gefäßgruppen zeigten sich geringere primäre Offenheitsraten bei Okklusionen. Die Evaluierung hinsichtlich der TASC C und D Gruppen erbrachten ein akzeptables Ergebnis. In der Beckenregion betrug die primären Offenheitsraten hierfür 89,2% bzw. 91,6% und im infrainguinalen Segment 56,6% bzw. 61,6%. Die erzielten Werte liegen im Bereich der bislang publizierten Arbeiten und sprechen für den Einsatz der perkutanen Angioplastie bei iliakalen und femoropoplitealen Gefäßläsionen, da diese Therapie nur wenig Komplikationen aufweist. Dies gilt sowohl für die hochgradigen Stenosen als auch für die Okklusionen. Insbesondere kann aufgrund unserer Ergebnisse die Therapie mittels PTA mit Stentimplantation für Läsionen vom Typ TASC D empfohlen werden. Die perkutane Rekanalisation stellt in diesem Fall eine echte Alternative zur chirurgischen Therapie dar und sollte primär angestrebt werden.
In the present work we applied the Optically read out PArticle track Chamber, OPAC, for the measurement of radial dose distributions, d(r), around tracks of heavy ions passing through the gas-filled sensitive volume of the chamber. The measured data were compared with d(r) functions derived from data calculated with the Monte Carlo particle transport code, TRAX – which is used for the heavy ion therapy planning at GSI. To measure this quantity we have used here an optically read out time projection chamber (OPAC) with a parallel-drift field and one or several electron and light amplification stages. The two dimensional projection of the three dimensional ionization pattern caused by the ionizing particle passing through the chamber is captured by an image intensified CCD camera. The work is motivated by the role the radial dose distribution plays in the estimation of the relative biological effectiveness (RBE) of heavy ions, e.g. in radiation therapy and in radiation protection. The most successful model for high-dose irradiation with ions (applicable e.g. for heavy ion therapy) is found to be the local effect model (LEM). The present work intends to deliver measured data for one of the basic physical parameters which serve as input for the application of the local effect model: the radial dose distribution, d(r). The first goal of our measurement program was the measurement of d(r) distributions around carbon ions of different energies from 400 MeV/u down to the Bragg peak regions. We found an excellent agreement between the measured and simulated distributions at all carbon energies for the r–range in which the measurements deliver useful results. The lower limit of this range is about 100 nm and the upper limit is 6000 nm at a resolution of down to 33 nm - if scaled to water density. Despite the simplifications in the TRAX code (e.g. binary encounter theory for the emission ionization electrons), the discrepancies between the simulated and measured d(r) distributions are found to be lower than the measurement uncertainties at most measured carbon ion energies in almost the whole observed r-range. Hence, within the limitations of our measurements we can conclude that the precision of TRAX is sufficient to simulate the d(r) distributions around carbon ions to serve as input parameter for therapy planning. However, this conclusion is only valid for larger radial distances (r >100 nm). For smaller radial distances the measured data are dominated by the diffusion. Apart from carbon ion tracks, tracks of very heavy ions (40Ar, 84Kr and 238U) were also measured with OPAC. The simulated d(r) values were typically slightly or significantly higher than the measured data in the 100 nm < r < 5000 nm region. The experience has shown: the heavier or the faster the ion, the higher the discrepancies. On the one hand, we found a surprisingly good agreement between measurements and simulations if the ions had energies of around 50 MeV/u (i.e. relatively low energy). On the other hand, at higher energies, simulated data underestimate the measured ones by up to a factor of two in the region of 100 nm < r < 1000 nm for 84Kr (E = 650 MeV/u) or in the region of 100 nm < r < 6000 nm for 238U (E = 1 GeV/u). A possible reason for these discrepancies is that the BEA model, used in TRAX for the production ionization electrons, is not adequate for very heavy projectiles. The energy values of the very heavy ions were selected with the aim of comparing the track structures - and namely the d(r) distributions - of ions with largely different atomic mass but similar LET values. From the Z-dependency of the stopping power we know that for heavier ions a higher specific ion energy (expressed in MeV/u) is required to provide the same LET. For example the common LET of 315 keV/micro-m was achieved at largely different specific energy levels of 4,4 MeV/u for 12C, 65 MeV/u for 40Ar and 650 MeV/u for 84Kr ions. The difference in the track structures was expected mainly due to the different ion velocities and thus e.g. different ranges of d-electrons. This expectation could be confirmed by the measurements. The reason why - in line with the simulations - no strong differences could be observed in the d(r) distributions of the argon and krypton ions is the relatively small difference in the velocities of the both ion types in conjunction with the limited range in r, where the data can be compared. In contrary, the d(r) function of the carbon ion shows a qualitatively different behavior than the heavier ions inside the observable radius-range - in agreement with the simulations.
In dieser Arbeit wurden zum ersten Mal explizite Ausdrücke für Strahlungskorrekturen zur Grundzustandsenergie der relativistischen Dichtefunktionaltheorie hergeleitet und im Rahmen einer Langwellennäherung ausgewertet. Dazu wurde, ausgehend von einer angemessenen Zerlegung des Wechselwirkungs-Hamiltonians (2.23), ein DFT-Analogon zu Sucher's Level-Shift Formel abgeleitet, G1. (3.54). Mit Hilfe der Ausdrücke für die Gesamtenergie Etd (3.17), die Hartree-Energie EH (3.21) sowie die korrespondierenden Potentiale (3.29), (3.30) und der Grundzustandsenergie des nichtwechselwirkenden KS-Systems, (3.41), kann diese DFT Level-Shift Formel dann mit dem Austauschkorrelationsenergiefunktional in Verbindung gebracht werden. Der resultierende Ausdruck für den Level-Shift, G1. (3.55), liefert eine exakte Darstellung des Austauschkorrelationsenergiefunktionals der RDFT. Dieses Funktional ist ein implizites Dichtefunktional, da es von den KS-Orbitalen und Eigenwerten abhängt. Der Vergleich mit dem Ausdruck für Exc aus Kapitel 6.1, der das Ergebnis des in der DFT weit verbreiteten Kopplungskonstantenintegrations-Schemas ist, zeigt, dass beide Zugänge vollkommen äquivalent sind. Allerdings wurde die in dieser Dissertation erarbeitete DFT Level-Shift Formel analog zur Standard QED-Störungsreihe abgeleitet und stellt damit einen idealen Zugang für , die Untersuchung von QED-Effekten im Rahmen relativistischer DFT dar. Insbesondere beinhaltet unser Zugang das bekannte QED-Schema, wenn man im Störanteil des Hamiltonoperators (3.32) das KS-Potential ... (3.29) durch das Potential eines wasserstoffartigen Systems ersetzt. Eine selbstkonsistente Anwendung dieses Zugangs verlangt jedoch die Lösung der relativistischen OPM-Integralgleichung. Während in Kapitel 4 gezeigt wurde, dass dies für den transversalen Austausch relativ direkt möglich ist, ist bisher noch nicht explizit überprüft worden, wie Vakuumkorrekturen im Zusammenspiel mit der OPM-Integralgleichung zu berücksichtigen sind. Da eine solche Untersuchung den Rahmen der vorliegenden Arbeit gesprengt hätte, haben wir uns auf eine perturbative Auswertung der Ausdrücke für Vakuumpolarisation und Vertexkorrektur beschränkt. .....
Die vakuumassistierte stereotaktische Brustbiopsie (Mammotome) bei mammographisch verdächtigen aber nicht palpablen und sonographisch nicht nachweisbaren Veränderungen der Brust ist mittlerweile ein probates Verfahren. In der vorliegenden Studie werden 152 Mammotombiopsien genauer untersucht. Es werden die konventionellen, vor der Biopsie angefertigten, und wenn vorhanden Film-Folien- Vergrößerungsaufnahmen mit den während der Biopsie angefertigten digitalen Ausschnittsmammographien verglichen, um eventuell vorhandene Unterschiede deutlich zu machen. Die Veränderungen werden in die BI-RADS-Klassifikation eingeteilt und mit der gewonnenen Histologie korreliert. Die durchschnittliche Dauer einer Biopsie beträgt 49,2 min, zum Auffinden und korrektem Einspannen der Brust in den Biopsietisch sind 1,47 Fehlversuche nötig und es werden 2,75 Rotationen pro Biopsie durchgeführt. Die Entfernung der Läsion erfolgt in 32,9% der Läsionen komplett, 51,5% werden überwiegend entfernt und 12,5% können nur unvollständig entfernt werden. Im Durchschnitt werden 15,53 Mikrokalzifikationen im Film-Folien- und 14,45 Mikrokalzifikationen im digitalen Bild gezählt, in den Film-Folien- Vergrößerungsaufnahmen sind 17,98 Mikrokalzifikationen sichtbar. Signifikant sind diese Unterschiede nur in der Gruppe der Läsionen mit 1 – 5 Mikroverkalkungen, hier sind in der digitalen Ausschnittsmammographie signifikant mehr Verkalkungen zu sehen. In der Gruppe der Läsionen mit 16 – 30 Mikroverkalkungen sind ebenfalls signifikante Unterschiede zwischen den beiden Aufnahmen zu sehen, wobei hier die Film-Folien-Mammographie mehr Verkalkungen sichtbar macht. Die Läsionen werden nach Betrachten der Film-Folien- Mammographien in signifikant höhere BI-RADS-Kategorien eingeteilt, als nach Beurteilung der digitalen Ausschnittsmammographien. Die histologische Untersuchung ergibt 7 invasive Karzinome, 30 in situ Karzinome, 14 ADHs und 101 benigne Veränderungen, wobei hier die duktale Hyperplasie und die Mastopathie den größten Anteil haben. Der Vergleich mit dem in der Literatur angegebenen Anteil an malignen Befunden in den einzelnen BI-RADS-Kategorien zeigt, dass die Film-Folien-Bilder recht gute Ergebnisse erzielen (27,5% maligne Befunde in Kategorie 4 und 6,5% in Kategorie 3-4), während die digitalen Bilder zu hohe Malignitätsanteile (45,0% in Kategorie 4) liefern. Es zeigt sich, dass bei der Unterscheidung von malignen Befunden und Präkanzerosen von benignen Befunden, die Film-Folien-Aufnahme signifikant bessere Ergebnisse erzielt als die digitale, gleiches gilt für die Unterscheidung von DCIS und ADH. Die Präparateradiographie zeigt, dass in 76,3% der Biopsien in der ersten Rotation Mikrokalk sichtbar ist, die histologische Diagnose kann aber in 92,1% der Biopsien bereits nach der ersten Rotation gestellt werden, auch wenn kein sichtbarer Kalk entnommen wurde. In 52 Fällen folgte auf die Biopsie eine operative Gewebeentnahme bzw. Tumorentfernung aus der Brust. In 13 Fällen ist die Veränderung im OP-Präparat nicht mehr nachweisbar, hier ist davon auszugehen, dass sie mit der Biopsie vollständig entfernt wurde. Bei 5 Läsionen wurde die Diagnose nach der OP als maligner eingestuft, die underestimation-rate beträgt 9,6%. Die Film-Folien-Mammographieaufnahmen eignen sich zur Einteilung in die BI-RADS-Klassifikation und Feststellung des Malignitätsrisikos besser, als die digitalen Ausschnittsmammographien.
The aim of the thesis was to identify structure activity relationships (SAR) in the primary screening data of high-throughput screening (HTS) assays. The strategy was to perform a hierarchical clustering of the molecules, assign the primary screening data to the created clusters and derive models from the clusters. The models should serve to identify singletons, clusters enriched with actives, not confirmed hits and false-negatives. Two hierarchical clustering algorithms, NIPALSTREE and hierarchical k-means have been developed and adapted for this purpose, respectively. A graphical user interface (GUI) has been implemented to extract SAR from the clustering results. Retrospective and prospective applications of the clustering approach were performed. SAR models were created by combining the clustering results with different chemoinformatic methods. NIPALSTREE projects a data set onto one dimension using principle component analysis. The data set is sorted according to the scoring vector and split at the median position into two subsets. The algorithm is applied recursively onto the subsets. The hierarchical k-means recursively separates a data set into two clusters using the k-means algorithm. Both algorithms are capable of clustering large data sets with more than a million data points. They were validated and compared to each other on the basis of different structural classes. NIPALSTREE provided with the loading vectors first insights into SAR whereas the hierarchical k-means yielded superior results. A GUI was developed allowing the display of and the navigation in the clustering results. Functionalities were integrated to analyse the clusters in the dendrogram, molecules in a cluster, and physicochemical properties of a molecule. Measures were developed to identify clusters enriched with actives, to characterize singletons and to analyse selectivity and specificity. Different protease inhibitors of the COBRA database were examined using the hierarchical k-means algorithm. Supported by similarity searches and nearest neighbour analyses thrombin inhibitor singletons were quickly isolated and displayed in the dendrogram. By scaling enrichment factors to the logarithm of the dendrogram level, clusters enriched with different structural classes of factor Xa inhibitors were simultaneously identified. The observed co-clustering of other protease inhibitors provided a deeper insight into selectivity and specificity and shows the utility of the approach for constructing focussed screening libraries. Specificity was analyzed by extracting and clustering relative frequencies of the protease inhibitors from the clusters of dendrogram level 7. A unique ligand based point of view on the pocketome of the protease enzymes was obtained. To identify not confirmed hits and false-negatives in the primary screening data of HTS assays, three assays were retrospectively analysed with the hierarchical k-means algorithm. A rule catalogue was developed judging hits in terminal clusters based on the cluster size, the percent control values of the entries in a cluster, the overall hit rate, the hit rate in the cluster and the environment of a cluster in the dendrogram. It resulted in the identification of a high proportion of not confirmed hits and provided for each hit a rating in context of related non-hits. This allows prioritizing compounds for follow-up studies. Non-hits and hits were retrieved from terminal clusters containing hits. Molecules bearing false-negative scaffolds were co-extracted and enriched. To minimize the number of false-positives in the extracted lists, Bayesian regularized artificial neutral network classification models were trained with the data. Applying the models marked improvement of enrichment factors for the false-negatives was obtained. It proofs the scaffold-hopping potential of the approach. NIPALSTREE, the hierarchical k-means algorithm and self-organising maps were prospectively applied to identify novel lead candidates for dopamine D3 receptors. Compounds with novel scaffolds and low nanomolar binding affinity (65 nM, compound 42) were identified. To provide a deeper insight into the SAR of these molecules, different alternative computational methods were employed. Support vector-based regression and partial least squares were examined. Predictive models for dopamine D2 and D3 receptor binding affinity values were obtained. Important features explaining SAR were extracted from the models. The prospective application of the models to the diverse and novel virtual screening data was of limited success only. Docking studies were performed using a homology model of the dopamine D3 receptor. The visual inspection of the binding modes resulted in the hypothesis of two alternative binding pockets for the aryl moiety of dopamine D3 receptor antagonists. A pharmacophore model was created simultaneously requiring both aryl moieties. Virtual screening with the model identified a nanomolar hit (65 nM, compound 59) corroborating the hypothesis of the two binding pockets and providing a new lead structure for dopamine D3 receptors. The presented data shows that the combined approach of hierarchically clustering a data set in combination with the subsequent usage of the clusters for model generation is suited to extract SAR from screening data. The models are successful in identifying singletons, clusters enriched with actives, not confirmed hits and false-negative scaffolds.
Die Rolle des cAMP/CREB-Signalwegs in der noradrenergen Differenzierung sympathischer Nervenzellen
(2006)
Um die sympathische Differenzierung in Abwesenheit von CREB zu untersuchen, wurden zunächst Embryonen von CREB-Null-Mäusen analysiert. In diesen Mäusen wiesen die sympathischen Ganglien an Embryonaltag E10,5 und E12 keine Unterschiede in der Differenzierung zu heterozygoten und wildtyp-Ganglien auf. Es wurde deshalb vermutet, dass die mit CREB interagierenden Transkriptionsfaktoren CREM und ATF1 den Verlust von CREB im sympathischen Ganglion funktionell kompensieren. Da Mäuse mit einem Knock-out von CREB und CREM bereits vor E10 sterben, konnte die Entwicklung sympathischer Ganglien in diesen Mäusen nicht weiter untersucht werden. Durch Immunfärbung gegen ATF1 in CREB-deletierten Mäusen und in situ-Hybridisierung gegen CREM und ATF1 wurde gezeigt, dass im Rumpf der CREB-KO-Maus keine drastische Hochregulation der Expression beider Gene stattfindet. Eine geringfügige Hochregulation konnte aber nicht ausgeschlossen werden kann. Um die cAMP/CREB-Signaltransduktion in Ganglienvorläuferzellen auszuschalten, und Kompensation durch CREM und ATF1 zu umgehen, wurden die dominant-negative Effektoren ACREB und PKA-R(I)mut verwendet. ACREB blockiert die Funktion von CREB, CREM und ATF1 (Ahn et al., 1998). Durch PKA-R(I)mut sollte die Aktivität von PKA inhibiert werden. Die Funktionalität beider Effektoren wurde in differenzierenden Zellkulturen bestätigt. Um in vivo geeignete Expression der Inhibitoren zu erzielen, wurden verschiedene Methoden des Gentransfers im Huhnembryo erprobt. Durch Infektion der Neuralplatte des Embryos mit Retroviruskonzentrat konnte frühe embryonale Expression der dominant-negativen Effektoren in Neurallleistenzellderivaten erzielt werden. Die Expression von ACREB im Embryo zeigte, dass CREB in der initialen adrenergen Differenzierung bis E4 erforderlich ist, die sympathischen Ganglien wiesen reduzierte adrenerge Genexpression auf. In späteren Embryonalstadien ist dieser Effekt nicht mehr nachzuweisen. Im Gegensatz zur Inhibition von CREB, hatte die Inhibition von PKA durch PKAR(I)mut keine Auswirkungen auf die Ganglienentwicklung in vivo. Durch pharmakologische Inhibition von PKA wurden kleinere Ganglien erzielt, ein selektiver Effekt auf die adrenerge Differenzierung wurde auch in diesem in vivo Experiment nicht beobachtet. Dies widerspricht den Hinweisen aus Zellkultur auf die selektive Funktion von PKA in der adrenergen Differenzierung. Der Befund, dass die Funktion von CREB in vivo auf die initiale adrenerge Differenzierung sympathischer Neurone beschränkt ist, und nicht für den Erhalt adrenerger Differenzierung erforderlich ist, wurde in vitro in differenzierten sympathischen Neuronen des Embryo bestätigt. ACREB und PKA-R(I)mut hatten keine bzw. nur geringe Auswirkungen auf den Anteil TH-positiver Neurone in Kulturen sympathischer Neurone aus Embryonen der Embryonaltage E7 und E12. Somit konnte erstmals in vivo eine physiologische Rolle für CREB in der Differenzierung sympathischer Neurone gezeigt werden: CREB ist für die initiale Expression von TH erforderlich.
Im Beobachtungsintervall vom 01.01.1985 bis zum 31.12.1995 wurden 49 Patienten ab dem vollendeten 16. Lebensjahr in der Klinik für Allgemein- und Gefäßchirurgie der Johann Wolfgang Goethe Universität Frankfurt/Main aufgrund eines Weichteilsarkoms therapiert. Von diesen wurden 22 Patienten zur Primärtherapie, 5 zur sekundären Herstellung der Radikalität nach extern erfolgter Primäroperation, 21 zur Rezidivtherapie – Lokalrezidiv oder Fernmetastase – und 1 Patienten zur Service- Operation – Einlage eines Expanders vor geplanter adjuvanter Radiatio nach extern erfolgter Primäroperation – eingewiesen. Untersucht wurden in der vorliegenden Studie Sarkomeigenschaften, Patientendaten, Diagnostik, Therapie und Follow up auf ihre Prognosesignifikanz hinsichtlich Lokalrezidivierungs-, Fernmetastasierungsrisiko und Gesamtüberleben. Trotz der relativ niedrigen Patientenzahl in der vorliegenden Studie fanden sich mit der Literatur vergleichbare Ergebnisse der hier untersuchten Sarkomeigenschaften: Die drei häufigsten Sarkomtypen waren Leiomyosarkome (13/49, 26,5%), maligne fibröse Histiozytome (13/49, 26,5%) und Liposarkome (9/49, 18,5%). Konform mit der Literatur zeigten die Liposarkome die signifikant günstigste Gesamtüberlebensprognose (10-Jahres Überlebensrate von 88,89%), was trotz einer hohen Lokalrezidivrate von 66,7% (6/9) mit der geringen Fernmetastasierungsrate von 33% (3/9) in Zusammenhang zu bringen ist. Eine T1-Sarkomgröße nach UICC stellte sich hinsichtlich Lokalrezidivierung und Gesamtüberleben übereinstimmend mit der Literatur als signifikant günstiger Prognosefaktor dar (p=0,031951 und p=0,004346). Es fand sich des weiteren konform mit der Literatur eine Lokalisationsbevorzugung am muskuloskelettalen System mit 57,1% (28/49). Eine muskuloskelettale Sarkomlokalisation stellte sich als statistisch signifikanter Überlebensvorteil heraus (p=0,001704). Die Begründung hierfür ist in der höheren Anzahl an hier befindlichen T1-Sarkomen (13/28, 46,4%) verglichen mit den intraabdominellen Sarkomen (1/21, 4,8%), der höheren adäquaten Operabilität (18/28, 64,3% vs. 8/21, 38,1%) sowie der insgesamt niedrigeren metachronen Fernmetastasierungsrate (12/28, 42,9% vs. 17/19, 89,5%) zu suchen. Eine intrakompartimentale Sarkomlokalisation nach Enneking wurde auch in der vorliegenden Studie als signifikant günstiger Prognosefaktor hinsichtlich Gesamtüberleben bestätigt (p=0,021523) mit einer 10-Jahres Überlebensrate von 78,57% vs. 40,76% für extrakompartimentale Sarkome. Dies lässt sich auf eine deutlich bessere adäquate Operabilität intrakompartimentaler gegenüber extrakompartimentaler Sarkome zurückführen (11/15, 73,3% vs. 15/34, 44,1%), deren allgemeine Eigenschaft es ist, zunächst in Richtung des geringsten Widerstandes innerhalb eines anatomisch definierten Kompartimentes zu wachsen. Analog hierzu konnte auch eine epifasziale Sarkomlokalisation nach den UICC Kriterien von 2002 als statistisch signifikanter Überlebensvorteil (p=0,031622) konform mit der Literatur bestätigt werden...
Die funktionelle Integrität des Endothels ist von essentieller Bedeutung für den Organismus. Die Entstehung und Progression vaskulärer Erkrankungen, wie z.B. der Atherosklerose, ist daher oftmals ursächlich mit einer Dysfunktion des Endothels verbunden. Vor diesem Hintergrund ist insbesondere die Aufklärung der molekularen Grundlagen der Regulation von Endothelzellfunktionen, ein zentraler Aspekt heutiger Forschung. Homeobox- (Hox) Transkriptionsfaktoren nehmen eine Schlüsselposition bei der Regulation einer Vielzahl zellulärer Prozesse, wie Proliferation, Migration und Gewebe-spezifischer Differenzierung ein. Die Identifikation sowie die Analyse der Funktion und Regulation von Hox-Transkriptionsfaktoren in Endothelzellen, leistet deshalb einen wichtigen Beitrag zum Verständnis der Endothelzellbiologie. Als ein zentraler Befund dieser Arbeit, konnte mit der Histon-Methyltransferase MLL erstmals die funktionelle Rolle eines epigenetischen Hox-Regulators auch in differenzierten Endothelzellen nachgewiesen werden. MLL erwies sich hierbei von essentieller Bedeutung für pro-angiogene Endothelzell-Funktionen. Die bedeutende Rolle von MLL bei der Migration von Endothelzellen konnte mit der transkriptionellen Regulation der beiden Hox-Transkriptionsfaktoren HoxA9 und HoxD3 in Verbindung gebracht werden, die hier erstmals als direkte Zielgene von MLL in Endothelzellen beschrieben wurden. Als funktionelle Mediatoren der MLLabhängigen Migration konnten zudem der EphB4-Rezeptor sowie die Integrine αVβ3 und α5β1, als Zielgene von HoxA9 bzw. HoxD3 nachgewiesen werden. Neben der Migration konnte für MLL auch eine essentielle Rolle für das Sprouting von Endothelzellen nachgewiesen werden, die sich im Gegensatz zur Migration, nicht auf die Regulation von HoxA9 oder HoxD3 zurückführen ließ. Diese Beobachtung lässt auf die Involvierung zusätzlicher MLLabhängiger Faktoren schließen, und verdeutlicht damit die zentrale Rolle von MLL bei der Regulation komplexer, pro-angiogener Prozesse in Endothelzellen. Über die genannte Rolle von MLL hinaus konnte im Rahmen dieser Arbeit das Wissen um Hox-Transkriptionsfaktoren mit funktioneller Relevanz für Endothelzellen, um die beiden Hox-Transkriptionsfaktoren HoxB4 und HoxB5 erweitert werden. Hier konnte für HoxB4 eine Rolle für die Fähigkeit von Endothelzellen zur Ausbildung zwei- und 3-dimensionaler Gefäßstrukturen nachgewiesen werden, während HoxB5 in die Proliferation, die Expression des endothelialen Markergens eNOS sowie die morphologische Beschaffenheit von Endothelzellen eingreift. Zusätzlich konnte die Rolle von transkriptionellen Hox Co-Faktoren, als Modulatoren von Hox-Funktionen, am Beispiel der Interaktion von Meis1 und HoxA9 bei der Transaktivierung des eNOS-Promoters aufgezeigt werden. Zusammenfassend leisten die hier gezeigten Daten einen Beitrag zum Verständnis der Rolle von Hox-Transkriptionsfaktoren als molekulare Regulatoren endothelialer Zellfunktionen.
Die Entwicklung künstlicher Ribonucleasen bietet das Potential, Werkzeuge für die Biotechnologie und langfristig neuartige Pharmaka bereitzustellen. 2-Aminobenzimidazole haben sich als metallfreie Katalysatoren zur unspezifischen Spaltung von Ribonucleinsäuren bewährt. In der vorliegenden Arbeit sollte das Konzept von künstlichen Ribonucleasen auf Basis dieser Molekülklasse auf seine Tragfähigkeit gerprüft werden. Außerdem sollten weitere mechanistische Erkenntnisse über die Katalyse der RNA-Hydrolyse durch 2-Aminobenzimidazole gewonnen werden. Hierzu wurden kupplungsfähige 2-Aminobenzimidazol-Derivate hergestellt und anschließend an RNA-Liganden gekuppelt. Diese Konjugate wurden auf ihre Spaltaktivität gegenüber RNA bei physiologischen Bedingungen sowie auf ihre Substrat- und Ortsspezifität getestet. Zunächst wurden Tripeptidkonjugate synthetisiert und untersucht. Hierbei konnte eine gegenüber den unkonjugierten Spezies erhöhte Affinität der Konjugate zum Substrat festgestellt werden. Auch wurde gezeigt, dass 2-Aminobenzimidazole, die in wässriger Lösung zur Aggregation neigen, auch als Einzelmoleküle in der Lage sind, die RNA-Hydrolyse zu katalysieren. Die Substrat- und Ortsspezifität der Tripeptidkonjugate ließ jedoch zu wünschen übrig. Durch die Konjugation von 2-Aminobenzimidazol-Derivaten an Antisense-DNA gelang schließlich die sequenz- und ortsspezifische Affinitätsspaltung von RNA mit beachtlicher Aktivität. Damit war die Tragfähigkeit des Konzepts bewiesen. Ferner konnten durch die weitere Untersuchung der Konjugate starke Indizien gewonnen werden, die das Modell, auf dem die Auswahl der 2-Aminobenzimidazole als katalytische Einheit beruht, stützen.
A new technique for precision ion implantation has been developed. A scanning probe has been equipped with a small aperture and incorporated into an ion beamline, so that ions can be implanted through the aperture into a sample. By using a scanning probe the target can be imaged in a non-destructive way prior to implantation and the probe together with the aperture can be placed at the desired location with nanometer precision. In this work first results of a scanning probe integrated into an ion beamline are presented. A placement resolution of about 120 nm is reported. The final placement accuracy is determined by the size of the aperture hole and by the straggle of the implanted ion inside the target material. The limits of this technology are expected to be set by the latter, which is of the order of 10 nm for low energy ions. This research has been carried out in the context of a larger program concerned with the development of quantum computer test structures. For that the placement accuracy needs to be increased and a detector for single ion detection has to be integrated into the setup. Both issues are discussed in this thesis. To achieve single ion detection highly charged ions are used for the implantation, as in addition to their kinetic energy they also deposit their potential energy in the target material, therefore making detection easier. A special ion source for producing these highly charged ions was used and their creation and interactions with solids of are discussed in detail.
Die Arbeit befasst sich mit der Zusammenhangsstruktur einer Vielzahl von Aufmerksamkeitskomponenten, welche aus deutlich unterscheidbaren theoretischen Perspektiven postuliert werden. Untersucht wird insbesondere die Frage, inwieweit zu den auf konzeptueller Ebene differenzierten Aufmerksamkeitskomponenten entsprechende kognitive Fähigkeiten empirisch separiert und in ein gemeinsames, theorienübergreifendes Aufmerksamkeitsmodell integriert werden können. Zunächst wurde unter Fragestellung 1 untersucht, ob fünf häufig postulierte Aufmerksamkeitskomponenten in der Tradition Posners (s. Posner & Boies, 1971; Posner & Rafal, 1987), Alertness, räumliche Aufmerksamkeit, fokussierte Aufmerksamkeit, Aufmerksamkeitswechsel und geteilte Aufmerksamkeit, empirisch unterscheidbare kognitive Fähigkeiten darstellen. Im Anschluss daran wurde unter Fragestellung 2 analysiert, welchen Beitrag die Aufmerksamkeitskomponenten in der Tradition Posners zur Erklärung konzeptuell unterscheidbarer Aufmerksamkeitskomponenten aus Sicht der Handlungstheorie (Neumann, 1992), aus der Arbeitsgedächtnisperspektive (Baddeley, 1986) sowie aus Sicht der psychometrischen Konzentrationsforschung (z.B. Brickenkamp, 1994; Moosbrugger & Goldhammer, 2006) leisten. Unter Fragestellung 3 wurde eine faktorenanalytische Integration aller einbezogenen Aufmerksamkeitskomponenten in ein theorienübergreifendes, integratives Aufmerksamkeitsmodell vorgenommen. In Anlehnung an Theorien, welche Aufmerksamkeit sowohl auf perzeptive Prozesse als auch auf die exekutive Kontrolle bei der Bearbeitung komplexer Aufgaben beziehen (Bundesen, 1990; Logan & Gordon, 2001), wurden zwei Basisdimensionen bzw. grundlegende Aufmerksamkeitsfaktoren vermutet, nämlich perceptual attention und executive attention, welche interindividuelle Fähigkeitsunterschiede über die verschiedenen Aufmerksamkeitskomponenten hinweg erklären. Schließlich wurde unter Fragestellung 4 auf theoretischer wie auch auf empirischer Ebene untersucht, inwieweit sich Konzentration in den Erklärungsrahmen mehrdimensionaler Aufmerksamkeitsmodelle eingliedern lässt, indem eine konzeptuelle sowie statistische Rückführung von Konzentration auf mehrdimensionale Aufmerksamkeit vorgenommen wurde. An einer Stichprobe von 232 Studierenden wurde die Leistung in 13 Aufmerksamkeits- und Konzentrationstests erfasst. Konfirmatorische Faktorenanalysen zeigten, dass die fünf Aufmerksamkeitskomponenten in der Tradition Posners miteinander in Beziehung stehen, jedoch klar separierbar sind. Aus den getesteten Strukturgleichungsmodellen ging hervor, dass diese Aufmerksamkeitskomponenten signifikant und in unterschiedlicher Weise zur Erklärung von konzeptuell unterscheidbaren Aufmerksamkeitskomponenten beitragen. In hypothesenkonformer Weise erwiesen sich Aufmerksamkeitswechsel und geteilte Aufmerksamkeit als bedeutsam für die Erklärung von Konzentration sowie von handlungsorientierten Aufmerksamkeitskomponenten. Hinsichtlich des integrativen Aufmerksamkeitsmodells konnte die vermutete 2-Faktorenstruktur, welche einen Generalfaktor perceptual attention sowie einen spezifischen Faktor executive attention enthält, bestätigt werden. Das vielfach von Aufmerksamkeit getrennt behandelte Konzentrationskonstrukt konnte auf theoretischer Ebene durch Aufzeigen konzeptueller Entsprechungen in den Erklärungsrahmen mehrdimensionaler Aufmerksamkeit eingegliedert werden. In konsistenter Weise ließ sich Konzentration auf empirischer Ebene durch Aufmerksamkeitskomponenten nach Posner sowie die beiden Faktoren des postulierten integrativen Aufmerksamkeitsmodells substanziell erklären.