Refine
Year of publication
- 2006 (240) (remove)
Document Type
- Doctoral Thesis (240) (remove)
Language
- German (240) (remove)
Has Fulltext
- yes (240)
Is part of the Bibliography
- no (240) (remove)
Keywords
- Cytochromoxidase (4)
- Elektronentransfer (3)
- Apoptosis (2)
- Electron transfer (2)
- Elektronenmikroskopie (2)
- Hashimoto-Thyreoiditis (2)
- Kinderheilkunde (2)
- MRI (2)
- Membranproteine (2)
- NMR-Spektroskopie (2)
Institute
- Medizin (110)
- Biochemie und Chemie (34)
- Biowissenschaften (28)
- Pharmazie (23)
- Physik (9)
- Gesellschaftswissenschaften (6)
- Neuere Philologien (5)
- Informatik (4)
- Erziehungswissenschaften (3)
- Geographie (3)
Diese Dissertation versucht neue und andere Wege in der Diagnostik der fokalen Leberläsionen FNH und HCC zu beschreiten, indem unter anderem bislang in der Untersuchung der Leber selten genutzte Untersuchungstechniken wie die multiplanare Rekonstruktion einer Volume-interpolated-breath-hold T1-3d-GRE Sequenz zum Einsatz kommen. In dieser Arbeit ging es darum, die Anwendung von Resovist® in der MRT für die fokalen Leberläsionen FNH und HCC zu bewerten. Dazu wurden von 40 Patienten in der Screeningphase die 36 Patienten, die den Goldstandard erfüllten mittels folgender Sequenzen untersucht: T2-Haste, T2-TSE-FS und T1-GRE jeweils prä und post Kontrastmittelgabe und als dynamische Aufnahme T1-3DGRE als Volume-interpolated-breath-hold, die später multiplanar rekonstruiert wurde. 4 weitere Personen mußten, wegen durch Bewegungsartefakte nicht mehr zu bewertende Bilder, leider noch aus der Studie ausgeschlossen werden, so dass letztendlich noch 31 Personen in der Studie eingeschlossen waren (16 Patientinnen mit einer FNH und 15 Patienten mit einer HCC). Aus den mit Region -of -Interest (ROI) gemessenen Signalintensitäten wurden in Signal- intensity –Ratio (SIR) und Percentage –Signal- intensity –Loss (PSIL) für die Sequenzen T2-Haste, T2-TSE-FS und T1-GRE und in SIR, Percentage – Enhancement (PE) und Contrast- to- Noise- Ratio (CNR) für die T1-3D-GRE VIBE und MPR berechnet. Gemessen wurde die Signalintensität der jeweiligen Läsionen, des linken und rechten Leberlappens, je ein Wert aus dem oberen und unteren Milzviertel, die Aorta in Höhe der Leber, ebenso die Vena cava und die Vena porta. Die so erhaltenen Messwerte wurden mit Hilfe des t-Tests und des u-Tests auf ihre Signifikanz (p<0,05) überprüft. Des Weiteren wurden Spezifität und Sensitivität in der Diagnose der Läsion vor und nach Kontrastmittelapplikation bestimmt und ebenfalls auf ihre Signifikanz überprüft. Dabei läßt sich eine signifikante Steigerung beider Parameter durch die Anwendung des SPIO nachweisen. Als Erstes wurden die Werte der Strukturen auf ihre jeweiligen Änderungen nach bzw. im Verlauf der Kontrastaufnahme hin bewertet, danach erfolgte ein Abgleich, inwieweit die als Arbeitshypothesen aufgestellten Vermutungen, dass sich die Signalintensitäten der Milz, der Leberlappen und der Vena porta als zuführendes Gefäß der Leber im Mitteldruck bei Vorliegen einer Leberzirrhose (n=14) gegenüber dem Fehlen einer solchen (n=17) unterscheiden. Eine solche Veränderung konnte für die Leber bestätigt, musste für die Milz und die Vena porta jedoch abgelehnt werden. Für die VIBE und MPR erfolgte ein Vergleich der Werte auf signifikante Unterschiede, um zu überprüfen, inwieweit die Rekonstruktion, die optisch ansprechendere Bilder liefert als ihre Vorlage VIBE, diese auch in Punkto Validität der Signalmessungen zu ersetzen vermag. Wenn man eine generelle Signalerhöhung von ca. 20 akzeptiert, muss man diesen Versuch als gelungen ansehen. Für die grundsätzliche Unterscheidung zwischen HCC und FNH konnten die Literaturberichte bestätigt werden, dass die FNH auf Grund einer größeren Anzahl von kontrastmittelaufnehmenden Kupffer- Zellen und geringere Dysplasie sowie Fehlen von den Zellstoffwechsel beeinflussenden Atypien, ein dem normalen Lebergewebe ähnlichere, wenn auch weit geringere, Signalintensität und –änderung aufwiesen als die HCC. Dennoch waren die Unterschiede in den Signalintensitäten und ihren Veränderungen zwischen FNH und normalem Parenchym groß genug, um auch hier eine sichere Abgrenzung zu bieten. Insgesamt boten die HCC einen stärkeren Läsion-zu-Leber-Kontrast (CNR) als die FNH. Die FNH wurden nach ihrer Morphologie in FNH mit und ohne Nidus eingeteilt und auf Unterschiede innerhalb dieser beiden Gruppen untersucht. Dabei wurde festgestellt, dass die SIR in allen Sequenzen für die FNH mit Nidus signifikant gegenüber den FNH ohne zentrale Narbe erhöht war, in der PSIL ließ sich dieser Trend ebenfalls als signifikant beweisen. In der dynamischen Bildgebung mittels VIBE und MPR konnte für SIR, PE und CNR eine Erhöhung der Werte ebenfalls für die FNH mit Nidus festgestellt werden. Auch zeigte sich, dass die gemessenen und errechneten Werte auch für das jeweils umgebende Lebergewebe analog zu den Läsionen erhöht war, allerdings nur soweit, dass immer noch eine genügend hohe CNR gemessen werden konnte. Innerhalb der Gruppe der HCC erfolgte eine Aufteilung in solitär gegen multifokal vorliegende HCC, diese beiden Einheiten wurden ebenfalls wie die FNH auf Unterschiede und Gemeinsamkeiten überprüft. Leider waren auf Grund der Aufteilung der HCC in solitär und multifokal keine Vergleiche mit bisherigen Arbeiten möglich, da diese Unterscheidung bisher noch nicht gewählt worden war.
Im Zeitraum von Januar 1993 bis Dezember 2003 wurden in der Klinik für Unfall- und Wiederherstellungschirurgie des Klinikums Darmstadt 62 Patienten bei metastatischem Befall der Wirbelsäule mit drohender oder manifester Instabilität im thorakalen und lumbalen Bereich unter palliativen Gesichts-punkten mit einem Fixateur interne dorsal stabilisiert. Insgesamt wurden 65 Segmente operativ versorgt. Bei den Patienten handelte es sich um 36 männliche (58%) und 26 weibliche (42%) Personen mit einem Durchschnittsalter von 64 Jah-ren (40-89 Jahre). Durchschnittlich 1,8 Jahre seit Diagnosestellung waren bis zur Operation vergangen, es handelte sich hauptsächlich um Primärtumoren der Mamma, des Bronchialsystems, der Prostata und Niere, sowie um Plasmozyto-me, welche alle zusammen für 70% der Primärdiagnosen verantwortlich waren. Bei 42 (67,74%) Patienten lag ein Stadium 3 nach Askin vor, bei 20 (32,26%) Patienten ein Stadium 4. Von den Patienten mit neurologischen Defiziten waren 2 (3,22%) paraplegisch mit minimaler motorischer Restfunkti-on, damit Frankel Stadium B zuzuordnen, 7 (11,29%) dem Stadium C mit motorischen Defiziten bei erhaltener Rest-funktion. 11 Patienten (17,74%) hatten lediglich sensible Defizite, waren jedoch alle mobil (Stadium D). Insgesamt hatten damit 20 Patienten (32,25%) präoperativ neurologische Defi-zite. Präoperativ betrug die geäußerte Schmerzintensität durchschnittlich 6,91 nach VAS. Intraoperativ kam es bei durchschnittlich 118,8 Minuten Ein-griffsdauer und im Mittel 913ml Blutverlust zu einer einzigen Komplikation, einer Duraverletzung. Postoperativ kam es bei 8 Patienten zu Komplikationen (12,9%). Eine Blasenlähmung mit Parästhesien nach Duralä-sion bildete sich vollständig zurück. Eine einzige Pedikelfehlplatzierung wurde erfolgreich revidiert, eine Dislokation einer Längsstange wurde nach 3 Monaten klinisch auffällig und gleichermaßen komplikationslos korrigiert. Ein postope-rativ aufgetretenes Serom war nach Revision saniert. Drei Patienten in reduziertem Allgemeinzustand verstarben innerhalb von 2 Wochen postoperativ an Herz-Kreislauf-Versagen, ein Patient überstand unter Intensivtherapie eine Sepsis bei reiz-losem Zugangsbereich. Die postoperative Schmerzintensität betrug durchschnittlich 0,30 Punkte nach VAS. Neurologisch kam es bei 10 der Patienten (50%) mit einem präoperativ be-stehenden neurologischen Defizit zu einer Verbesserung der Symptomatik. Bei 18 von 62 Patienten (29,03%) verblieben neurologische Defizite, wovon 14 sensorischer (22,58%) und 4 motorischer (6,45%) Qualität waren. 58 von 62 Patienten (93,55%) waren postoperativ wieder mobil. Die mittlere Überlebenszeit betrug 3,53 Jahre postoperativ.
Die Tracheotomie langzeitbeatmeter Patienten hat sich als integraler Bestandteil der modernen Intensivtherapie etabliert. Die von Ciaglia et al. 1985 beschriebene perkutane Dilatationstracheotomie (PDT) erwies sich als sichere, komplikationsarme und wenig zeitaufwendige Alternative zum konventionellen, offenen Vorgehen. Ausgehend von der PDT wurden bis 2001 drei weitere perkutane Tracheotomietechniken im klinischen Alltag verwendet: 1990 die von Griggs vorgestellte Guide- Wire- Dilating- Forceps Technik (GWDF), 1997 die translaryngeale, retrograde Technik nach Fantoni (TLT) und 1999 die modifizierte single-step Technik nach Ciaglia mittels des speziellen Blue Rhino®– Dilatators (CBR). Ziel der vorliegenden klinischen Untersuchung war es, ob eine Lernkurve für die vier Verfahren besteht und sie hinsichtlich ihrer Komplikationen und Praktikabilität zu vergleichen. Bei insgesamt 200 Intensivpatienten wurde unter Beachtung der absoluten Kontraindikationen bettseitig eine elektive perkutane Tracheotomie unter fiberoptischer Kontrolle durchgeführt. Jede der vier Methoden (PDT, GWDF, TLT, CBR) kam bei jeweils 50 Patienten, die chronologisch in zwei Kohorten (Gruppe A: Patienten 1-25, Gruppe B: Patienten 26-50) aufgeteilt wurden, zur Anwendung. Erfasst wurden die Dauer des Eingriffs und alle perioperativen Komplikationen, beginnend unmittelbar vor dem Eingriff bis 48 Stunden danach. Die Komplikationen wurden zunächst den Kategorien intraoperativ und postoperativ zugeteilt, dann wiederum unterschieden in medizinische und technische und in die drei Schweregrade leicht, mittel und schwer eingeordnet. Alle Verfahren waren schnell durchführbar. Bezogen auf das Gesamtkollektiv erwies sich die CBR als schnellste durchführbare Methode, gefolgt von der GWDF, der PDT und der TLT. Die Eingriffsdauer verkürzte sich bei allen Methoden außer bei der CBR in der zweiten Kohorte im Vergleich zu ersten. Bei den 200 perkutanen Tracheotomien traten insgesamt 3 schwere Komplikationen auf (1,5%), alle medizinischer Natur, 13 mittelschwere Komplikationen (7,5%), etwa zur Hälfte technisch und zur Hälfte medizinisch, und 38 leichte Komplikationen (19%), auch in etwa zur Hälfte technisch und medizinisch. Kohortenabhängig ergab sich bei allen Verfahren bis auf die PDT ein Rückgang der Gesamtkomplikationen in den Gruppen B im Vergleich zu den Gruppen A. Aufgeschlüsselt nach medizinisch und technisch ging der Anteil der technischen Komplikationen im Vergleich zu dem Anteil der medizinischen Komplikationen stärker zurück. Als Schlußfolgerung ergibt sich, daß alle vier Methoden der perkutanen Tracheotomie schnell durchführbar sind und eine niedrige Komplikationsrate aufweisen. Die seltenen schweren Komplikationen sind offenbar nicht durch Übung und zunehmendes Beherrschen der Technik vermeidbar. Legt man als Kriterium für die Erlernbarkeit einer Tracheotomiemethode die Komplikationsrate und die Dauer des Eingriffs zugrunde, so legt diese Untersuchung nahe, dass jeweils für alle vier untersuchten Verfahren der perkutanen Tracheotomie eine Lernkurve existiert.
Einleitung: In der vorliegenden Studie wurde die laparoskopisch durchgeführte Thermoinzision der Ovarialoberfläche, eine operative Behandlungsmöglichkeit des polyzystischen Ovarsyndroms (PCOS), im Hinblick auf die Auswirkungen auf Zyklustempus und Fertilität untersucht.
Material und Methode: Zwischen März 1999 und April 2002 unterzogen sich 55 PCOS-Patientinnen, mittleres Alter 30,4 Jahre, im Zentrum für Frauenheilkunde und Geburtshilfe der Universitätsklinik Frankfurt am Main und in der Abteilung für gynäkologische Endokrinologie und Fertilitätschirurgie im Bürgerhospital Frankfurt am Main einer Thermoinzision der Ovarialoberfläche. Alle Patientinnen litten an unerfülltem Kinderwunsch, 20 von ihnen hatten zusätzlich einen unregelmäßigen Menstruationszyklus, 7 gaben eine vermehrte Behaarung. 16 Patientinnen hatten sowohl einen unregelmäßigen Menstruationszyklus als auch Hirsutismus. 37 Patientinnen hatten bereits vor der Operation frustrane Hormonbehandlungen hinter sich. Bei 18 Patientinnen wurde die Thermoinzision der Ovarialoberfläche als primärer Therapieansatz im Rahmen einer Laparoskopie zur Sterilitätsdiagnostik gewählt. Die Nachbeobachtung fand durch schriftliche Befragung und das Einsehen der Krankenblätter und der Operationsberichte statt. Der Fragebogen umfasste im Wesentlichen drei Punkte: 1) Die allgemeine Zufriedenheit mit der Behandlung 2) Den Behandlungserfolg zum Zeitpunkt der Befragung im Vergleich zu vor der Operation (Schwangerschaften, Zyklusregelmäßigkeit, Hirsutismus) 3) Die zusätzlich zur Thermoinzision der Ovarien in Anspruch genommenen Behandlungen (z.B. Medikamente) Die mittlere Nachbeobachtungszeit betrug 31 Monate.
Ergebnisse: Die Schwangerschaftsrate nach durchgeführter Thermoinzision betrug in dieser Studie 51%. Davon traten 90% innerhalb des ersten postoperativen Jahres auf. Der Anteil der Patientinnen mit regelmäßigem Zyklus stieg von 35% auf 58%. Damit war der Einfluss der Thermoinzision auf den Menstruationszyklus signifikant Bei 39% kam es zur Verbesserung des Hirsutismus. Die Abortrate nach Thermoinzision lag in dieser Studie bei 21%. Insgesamt waren 85% der operierten Patientinnen zufrieden bis sehr zufrieden mit dieser Behandlungsmethode. In der Gruppe der Patientinnen mit Nikotinkonsum sind 36% schwanger geworden, im Gegensatz zur Nichtrauchergruppe mit einer Schwangerschaftsrate von 57%. Zwischen Body Mass Index und postoperativer Zyklusregelmäßigkeit / Schwangerschaftsrate, sowie zwischen Alter und postoperativer Zyklusregelmäßigkeit / Schwangerschaftsrate bestand kein Zusammenhang.
Diskussion und Schlussfolgerung: Die Thermoinzision der Ovarialoberfläche ist eine effektive Methode zur Behandlung von Zyklusunregelmäßigkeiten und Sterilität bei PCOS-Patientinnen. Zudem zeigt sie auch Erfolg in der Behandlung des Hirsutismus bei diesen Patientinnen. Da es sich um einen operativen Therapieansatz handelt, sollte die Thermoinzision als Therapie der zweiten Wahl, nach versuchter medikamentöser Therapie, eingesetzt werden.
Ziel der Arbeit war die Verifizierung der MR-Thermometrie mit verschiedenen MR Sequenzen für die laserinduzierte Thermotherapie mittels fluoroptischer Temperaturmessung bei 0,2 und 1,5 Tesla, bei Temperaturen bis 80 Grad Celsius. Bei ex-vivo Schweineleber und Agarose-Phantomen wurde unter MR-Bildgebung eine laserinduzierte Thermotherapie (LITT) durchgeführt. Die Messungen erfolgten pro Tomograph mit zwei verschiedenen Empfangsspulen. Die Temperaturdarstellung basierte auf der Änderung der Protonenresonanzfrequenz (PRF) und der longitudinalen Relaxationszeit (T1). Die PRF wurde mit vier verschiedenen MR-Sequenzen gemessen: zwei Gradientenecho-Sequenzen (FLASH), einer TurboFLASH- und einer Multiecho-TRUFI-Sequenz. Bei der T1-Methode wurden ebenfalls vier verschiedene MR-Sequenzen eingesetzt: eine konventionelle Gradientenecho-Sequenz (FLASH), eine TrueFISP-Sequenz (TRUFI), eine Saturation Recovery Turbo-FLASH-Sequenz (SRTF) und eine Inversion Recovery Turbo-FLASH-Sequenz (IRTF). Die Temperatur wurde mit einem faseroptischen Thermometer kontrolliert und mit der MRT-Temperatur korreliert. Es wurde eine gute lineare Korrelation zwischen der am MRT geschätzten und der faseroptisch gemessenen Temperatur erreicht. Bei 1,5 Tesla unter Einsatz einer Kopfspule erwies sich bei Messungen an der Schweineleberprobe PRF-FLASH von Siemens mit einer mittleren Temperaturabweichung von 5,09°C als optimal. Mit einem Bodyarray ergab hier IRTF die präzisesten Temperaturbestimmungen mit einer mittleren Abweichung von 8,02°C. Die Genauigkeiten und die Linearitäten von SRTF und PRF-TFL unterschieden sich davon nur geringfügig, sie können also als gleichwertig betrachtet werden. Bei 0,2 Tesla mit einer Kopfspule ergab die Messung mit SRTF mit 6,4°C die geringste mittlere Temperaturabweichung, mit einer Multipurpose-Coil erwiesen sich TRUFI und FLASH als optimal mit einer mittleren Temperaturabweichung von 15,62°C. bzw. 14,48°C. Mit den erreichten Temperaturgenauigkeiten kann der Thermoeffekt der LITT in Echtzeitnähe kontrolliert werden. Bei 1,5 T sind PRF-FLASH oder TFL aufgrund der Exaktheit und der Gewebeunabhängigkeit vorzuziehen. PRF-TRUFI mit einer Akquisitionszeit von 1,09 s ist die schnellste implementierte Sequenz. Bei 0,2 T sind die T1-Sequenzen genauer.
Die Herstellung von Poly(butylcyanoacrylat)-Nanopartikeln (PBCA-NP) ist seit fast 25 Jahren bekannt. Sie erfolgt meist durch anionische Emulsionspolymerisation von Butylcyanoacrylat unter Verwendung von Dextran 70.000 als Stabilisator. Vereinzelt wurde in früheren Arbeiten bereits Pluronic® F68 als Emulgator für die Polymerisationsreaktion verwendet. Diese Arbeit hat ihren Schwerpunkt in der Herstellung von PBCA-NP mit F68 als Stabilisator. Es konnte gezeigt werden, dass sich mit diesem Hilfsstoff ebenfalls nanopartikuläre Trägersysteme reproduzierbar und im gewünschten Größenbereich um 200 nm herstellen lassen. Diese Partikel besitzen im Gegensatz zu Dextran-stabilisierten NP eine sehr enge Größenverteilung. Im Rahmen dieser Arbeit wurden die hergestellten NP im Bezug auf ihr Molekulargewicht und ihre Dichte charakterisiert. Ein Partikel besitzt die Masse von ca. 2,5 * 109 Dalton und hat eine Dichte von etwa 1,148 g/cm³. Bei einem PBCA-Nanopartikel handelt es sich jedoch nicht um ein Riesenmolekül, vielmehr wird er durch Agglomeration von relativ kurzen Polymerketten gebildet. Ein Partikel besteht aus ca. einer Million Polymerketten, welche ein Molekulargewicht von ca. 2500 g/mol besitzen. Der Einfluss der Herstellungsparameter auf leere und arzneistoffbeladene Partikel wurde untersucht. Die Partikel wurden hierbei durch die Parameter Partikelgröße, Polydispersität, Partikelausbeute, Zetapotential und Molekulargewicht charakterisiert. Neben der Herstellung durch anionische Emulsionspolymerisation wurden NP durch radikalische Emulsionspolymerisation und Nanopräzipitation erhalten. Auch unter Verwendung dieser Verfahren wurden Trägersysteme im gewohnten Größenbereich um 200 nm gebildet. Zusätzlich zur Herstellung von NP hat sich diese Arbeit auch mit den Charakterisierungsmethoden für kleinpartikuläre Arzneiformen auseinandergesetzt. Es konnte gezeigt werden, dass die häufig angewendete dynamische Lichtstreuung ein geeignetes Verfahren zur Ermittlung des mittleren Partikeldurchmessers darstellt. Die Ergebnisse dieser Methode stimmen weitgehend mit den Resultaten der zusätzlich verwendeten mikroskopischen Verfahren und der analytischen Ultrazentrifugation überein. Der Einsatz der analytischen Ultrazentrifugation lieferte die best aufgelöste Partikelgrößenverteilung und ermöglichte darüber hinaus die Bestimmung der Dichte der Partikel. Neben der mittleren Größe der Trägersysteme wurde auch das mittlere Molekulargewicht der gebildeten Polymerketten bestimmt. Die hierfür als Standard eingesetzte Gel-Permeations-Chromatographie wurde mit einem relativ neuen Verfahren, der MALDI TOF Massenspektrometrie verglichen. Beide Verfahren lieferten ein zahlenmittleres Molekulargewicht der Polymerketten von 2500 – 3000 Da. Lediglich im Bezug auf das gewichtsmittlere Molekulargewicht zeigten sich größere Unterschiede zwischen beiden Messverfahren, welche jedoch auf das zugrunde liegende Messprinzip und nicht auf das untersuchte PBCA zurückzuführen sind. Mit Hilfe der Massenspektrometrie konnte die chemische Struktur der Polymerketten näher aufgeklärt werden. Neben den Produkten des seit langem postulierten Reaktionsmechanismus finden sich Derivate des Polymers, welche formal durch Abspaltung bzw. Anlagerung von Formaldehyd entstehen. Die Menge an frei vorliegendem Formaldehyd scheint jedoch so gering zu sein, dass sie kaum die Hauptursache für die relative Toxizität der PACA-NP darstellen kann. Darüber hinaus ist es möglich, durch Wahl der Reaktionsbedingungen die Bildung von Derivaten des Ursprungspolymers und von Formaldehyd zu minimieren. Die Ergebnisse in der Herstellung und Charakterisierung von leeren Pluronic® F68-stabilisierten PBCA-NP ließen die Verwendung von Doxorubicin-beladenen NP unter Verwendung dieses Stabilisators für die Gehirntumor-Therapie viel versprechend erscheinen. Die hergestellten Nanopartikel zeigten eine im Vergleich zu Dextran-stabilisierten Doxorubicin-NP signifikant niedrigere Arzneistoffbeladung. Die dessen ungeachtet durchgeführte experimentelle Chemotherapie an Glioblastom-tragenden Ratten lieferte jedoch ermutigende Ergebnisse. Die neu entwickelte Zubereitung führte zu einem vergleichbaren Prozentsatz an Remissionen wie die bisherige Standard-PBCA-Formulierung. Die F68-stabilisierte Formulierung und die bisherige Standard-Formulierung mit Polysorbat 80 zeigten nach Inkubation mit humanem Plasma ein vergleichbares Adsorptionsmuster an Plasmaproteinen. Auf Basis der vorangegangenen Studien und dieser Arbeit erscheint es möglich, eine potente nanopartikuläre Doxorubicin-Zubereitung zu entwickeln, welche ausreichend charakterisiert ist, um ihre Anwendung am Menschen zu vertreten.
Erhöhte Faktorenaktivitäten der Gerinnungsfaktoren VIII und IX standen seit längerer Zeit in dem Verdacht, unabhängige thrombophile Risikofaktoren darzustellen. Die Studienlage hierzu ist bzgl. der Wahl der untersuchten Kollektive, der Messmethoden, sowie der berücksichtigten Einflussgrößen uneinheitlich. Daher wurde die vorliegende Studie durchgeführt, um zum einen in einem Normalkollektiv die die Faktorenaktivität möglicherweise beeinflussenden Störgrössen wie Body Mass Index (BMI) oder ein steigendes Lebensalter zu definieren, und um andererseits die Häufigkeit erhöhter Faktor VIII und IX Aktivitäten bei Patienten mit venösen Thrombosen unter Berücksichtigung dieser Störgrössen im Vergleich zum Normalkollektiv exakt zu analysieren. Es wurden 500 Blutspender konsekutiv als Normalkollektiv eingeschlossen. Diesem wurde ein Patientenkollektiv von 374 konsekutiven Patienten mit venösen Thrombosen gegenübergestellt. Beide Kollektive wurden an Hand eines einheitlichen, standardisierten Fragebogens bezüglich ihrer Eigen- und Familienanamnese befragt. Darüber hinaus erfolgte eine Blutentnahme unter standardisierten Bedingungen. Als Messmethode für die Faktorenaktivität von Faktor VIII und IX wurde ein Einstufengerinnungstest verwendet, hierbei wird die Aktivität eines einzelnen Gerinnungsfaktors gemessen. Alle zu untersuchenden Plasmen wurden auf Lupusantikoagulantien getestet, um Probanden und Patienten mit positiven Lupusantikoagulantien von den weiteren Berechnungen ausschließen zu können, da Lupusantikoagulantien die Faktorenmessergebnisse verfälschen können. Dies wurde in den bisherigen Veröffentlichungen nicht berücksichtigt. Mit Hilfe des Normalkollektives wurde die 90% Perzentile als Cut Off für erhöhte Faktorenwerte definiert (FVIII = 158%; FIX = 151%). Bei Analyse des Faktors VIII konnten mit Hilfe einer linearen Regressionsanalyse folgende Störgrössen als relevant für die Faktorenaktivität innerhalb des Normalkollektives beschrieben werden: Raucher wiesen signifikant niedrigere Faktor VIII – Aktivitäten als Nichtraucher auf, während ein steigender BMI und ein steigendes Lebensalter zu signifikant höheren Faktor VIII -Aktivitäten führten. Ein Einfluss des Geschlechtes, sowie ein signifikanter Einfluss oraler Kontrazeptiva auf die Faktor VIII - Aktivitäten konnte nicht nachgewiesen werden. Die Aktivitäten des Faktor IX zeigten im Normalkollektiv ebenfalls eine Abhängigkeit von steigendem Lebensalter, höheren BMI Werten sowie im Gegensatz zur Faktor VIII – Aktivität auch von der Einnahme oraler Kontrazeptiva, wobei alle diese Zustände zu signifikant höheren Faktor IX Aktivitäten führten. Ein Vergleich der Höhe der Faktor VIII – Aktivitäten der Patienten mit venösen Thrombosen zum Normalkollektiv konnte leider nicht durchgeführt werden, da festgestellt wurde, dass eine unterschiedlich lange Lagerzeit der tiefgefrorenen Plasmaproben der Patienten zu einem Absinken von erhöhten Faktor VIII – Aktivitäten führen kann. Dies wurde in der Literatur bisher nicht beschrieben und war daher zu Beginn der Studie nicht bekannt. Im Gegensatz hierzu blieben die erhöht gemessenen Faktor IX – Aktivitäten auch nach einer längeren Lagerzeit stabil, so dass hier eine Risikoberechnung für erhöhte Faktor IX – Aktivitäten in Bezug auf das Auftreten venöser Thrombosen mit einer korrigierten Odds – Ratio erfolgen konnte. Die für BMI, Alter und Geschlecht korrigierte Odds Ratio betrugt 3,98 mit einem 95% Konfidenzintervall von 2,5 – 6,3. Es ist somit von einem ca. 4 fach erhöhten relativen Risiko für venöse Thrombosen bei erhöhten Faktor IX – Aktivitäten auszugehen, so dass diese einen neuen thrombophilen Risikofaktor für venöse Thrombosen darstellen.
Die Blut-Hirn-Schranke macht das Gehirn zum streng kontrollierten extraterritorialen Raum. Die sensiblen Hirnfunktionen laufen unabhängig und ungestört von den vielfältigen Prozessen der anderen Organe ab. Neben den wichtigen Funktionen dieser Barriere hält sie jedoch auch nötige Medikamente von ihrem Wirkort, dem Gehirn, fern. Die in-vitro-BHS soll Mechanismen aufklären und Tierversuche ersetzen. In den letzten Jahren konnte so das Bild von einem statischen Computer, Gehirn, durch das Bild eines hoch plastischen Arbeitsspeicher-Netzwerkes mit verschiedensten Verbindungen ersetzt werden. Die vorliegende Arbeit ist ein zwei Bereiche gegliedert: 1. Transportstudien von Nanopartikeln und Substanzen im Transwell-System 2. Aufklärung von Transportmechanismen für Nanopartikel an der BHS Die Transportuntersuchungen erfolgten in einem Zwei-Kammer- Transwell-System. Dieses besteht aus zwei Kompartimenten, die zum einen das Blut-Kreislauf-System und zum anderen das Gehirn darstellen sollen. Diese Kompartimente sind durch eine Membran getrennt, auf welche Gehirn-Kapillar-Endothelzellen ausgebracht werden. Membran und ausgebrachte Zellen stellen die BHS dar. Der Transport von Nanopartikeln oder Substanzen wurde durch den Nachweis von Fluoreszenz im Medium der zwei Kompartimente nachgewiesen. Die fluoreszierenden Nanopartikel oder die fluoreszierende Substanz wurden in das obere Donor-Kompartiment gegeben und zu den Zeitpunkten 2, 4, 6 und 24 Stunden wird die Fluoreszenz in Donor- und Akzeptor-Kompartiment gemessen und beurteilt. Bei diesen Transportstudien konnte gezeigt werden, dass dieses System für den Nachweis von Nanopartikel-Transport ungeeignet ist. So benötigen die Nanopartikel zur Überwindung der Membran ohne Zelllayer schon über 24 Stunden. Die Menge der ankommenden Nanopartikel im Akzeptor-Kompartiment war sehr gering. Substanz-Transport und BHS-charakteristische Eigenschaften lassen sich in diesem Modell jedoch gut nachweisen. So konnte die Aktivität der Efflux-Pumpe PgP anhand des Transportes von Rhodamin, einem PgP-Substrat, belegt werden. Während der Transport von Rhodamin nach Zugabe des PgP-Substrates nur eingeschränkt beobachtbar war, konnte der Transport des Rhodamins vom Donor-Kompartiment in das Akzeptor-Kompartiment nach Zugabe des PgP-Hemmers Verapamil innerhalb 4 Stunden nachgewiesen werden. Auch die TEER-erhöhende Wirkung von Hydrokortisol und somit verbesserter Barriereeigenschaften der Zellschicht konnte an diesem Modell nachgewiesen werden. Zur Aufklärung des Mechanismus eines erfolgreichen Nanopartikel-Transports über die Blut-Hirn-Schranke wurde zunächst der rezeptor-vermittelte Transport über den LDL-Rezeptor untersucht. Der LDL-R ist ein Mitglied der LDL-R-Familie welche neben anderen Organen vermehrt in Gehirn und BHS lokalisiert sind. Als Ligand fungiert bei dieser Rezeptorfamilie und insbesondere bei dem LDL-R das ApoE. Mittels ApoE-modifizierter HSA-Nanopartikel sollte eine spezifische Bindung der Transportsysteme über den gebundenen Liganden ApoE an zielspezifische Transport-Mechanismen wie den LDL-R nachgewiesen werden. Über diesen könnten die Nanopartikel endocytiert und der Arzneistoff an seinen Wirkort gebracht werden. Untersuchungen zu diesem Transport-Mechanismus erfolgten in verschiedenen Arbeitsschritten. So wird erst eine Optimierung des LDL-R-Nachweises auf den Zellen durchgeführt. Eine Leberzelllinie wurde auf LDL-R hin untersucht und die Rezeptorkonzentration durch Mehrfachkultivierung der Zellen optimiert. Nach 2-tägiger Kultivierung in lipidfreiem Serum und dem zweimaligen Sorten der Zellen mit einem Antikörper gegen den LDL-Rezeptor konnte ein Nachweis des Rezeptors von 70-90% erreicht werden. Nächster Schritt war die Untersuchung der Bindung von ApoE-modifizierten Nanopartikeln an verschiedenen Zelllinien mit unterschiedlichem LDL-R-Nachweis, gefolgt von Untersuchungen zur Bindungsspezifität. In diesen Untersuchungen sollte die Spezifität dieser Bindung durch Präinkubationen mit einen Antikörper gegen die Liganden-Bindungsstelle und freiem ApoE nachgewiesen werden. Eine Bindung der ApoE-modifierten HSA-Nanopartikel konnte an Endothelzellen des Gehirns nachgewiesen werden. Sowohl die primär isolierten porcinen brain capillary endothelial cells (pBCEC), als auch die Maus-Gehirn-Endothelzelllinie bEnd3 wiesen eine prozentuale Bindung von ApoE-modifizierten Nanopartikeln von über 70% auf. Eine Bindung dieser Partikel an andere getestete Zelllinien mit BHS-Eigenschaften oder einem hohen Nachweis an LDL-R konnte nicht gezeigt werden. Eine Hemmung der Bindung von ApoEmodifizierten Nanopartikeln an Gehirn-Endothelzellen war nicht oder nur geringfügig möglich. So konnte durch eine Präinkubation mit dem Antikörper keine Reduktion der Bindung erreicht werden. Die Präinkubation mit freiem ApoE führte hingegen zu einer sehr geringen Erniedrigung der Bindungsaffinität der ApoE-modifizierten Nanopartikel. Zu beachten war hierbei noch die geringe nachweisbare Bindung von freiem ApoE an die Zellen. In Versuchen zur Bindung von freiem ApoE war eine prozentuale Bindung von freiem ApoE an die Zellen von nur etwa 20% nachweisbar. Bei einer solch geringen Bindung des freien Liganden kann also auch nicht von einer hohen Hemm-Wirkung ausgegangen werden. Es muß nach diesen Untersuchungen davon ausgegangen werden, dass ein ApoE- und Gehirn-Endothelzell-spezifischer Mechansimus am Transport von ApoEmodifizierten Nanopartikeln beteiligt ist. Der untersuchte LDL-R spielt hierbei keine oder nur eine sehr untergeordnete Rolle. Abschließend wurden noch Nanopartikel mit gebundenen ApoE-Mutanten auf ihre Bindung an Zellen getestet. Die modifizierten ApoE-Liganden unterschieden sich in dem Austausch von Aminosäuren in der Ligand-Bindunsdomäne. In Bindungsuntersuchungen konnte bei diesen ApoE-Varianten kein Unterschied in deren Affinität zu Zellen aufgezeigt werden. Dieser Austausch von Aminosäuren in der Liganden-Bindungsstelle hatte keinerlei Auswirkung auf deren Bindung an die Zellen, was wiederum für einen LDL-R unabhängigen Transport-Mechanismus spricht. Am Ende der vorliegenden Arbeit wurde noch ein alternativer Transport-Mechanismus untersucht. Das Heparansulfat-Proteoglykan (HSPG) als alternativer Mechansimus weist Heparin-Bindungsdomänen auf, die der LDL-R Bindungsdomäne sehr ähnlich sind und bekannterweise in der Lage sind, LDL-Partikel zu internalisiseren. Heparinase I kann die anionischen Heparansulfat-Seitenketten entfernen und somit den Internalisierungsmechanismus über das HSPG beeinträchtigen. Untersuchungen zum HSPG und eine Vorinkubation mit verschiedenen Konzentrationen an Heparinase I deuteten auf eine wichtige Rolle des HSPG im Bindungs- und Internalisierungsmechanismus für ApoE-PEG-HSA-NP hin. Die Affinität der ApoE- modifizierten Nanopartikel konnte durch einen Heparinase-Enzymverdau deutlich erniedrigt werden. Auch führte der Einsatz unterschiedlicher Heparinase I-Konzentrationen zu der Annahme, dass es sich um eine konzentrationsabhängige Beeinträchtigung des Mechanimus handelte. So erreichten 10 Units/ml eine weitaus größere Hemmung der ApoE-PEG-HSA-NP-Bindung als Konzentrationen von 2-5 Units/ml. Strukturelle Ähnlichkeiten des ApoEs mit zellpenetrierenden Peptiden sprechen dafür, dass neben dem HSPG noch andere Translokationsmechanismen von Bedeutung sein könnten.
Die moderne Biochemie ist eine Wissenschaft, die sich im Wandel befindet. Während die bisherige Forschung sehr stark experimentell geprägt ist, existiert eine theoretische Biologie, analog zur theoretischen Chemie, nur in Ansätzen. Trotzdem wandelt sich auch diese Wissenschaft hin zu einer stärkeren Einbindung theoretischer Ansätze. Der Grund hierfür liegt in der Betrachtung von zunehmend komplexeren Systemen. So beschäftigt man sich in der Systembiologie, einem Teilbereich der Biochemie, unter anderem mit der Aufklärung komplexer Reaktionsnetzwerke. Während Ausschnitte dieser Netzwerke weiterhin experimentell aufgeklärt und verstanden werden, lässt sich das zusammenhängende Bild zunehmend nur noch durch eine theoretisch geprägte Modellbildung fassen. Darüber hinaus zeigen neuere Forschungsergebnisse die Bedeutung der Tatsache, dass Moleküle, Zellen und Zellhaufen, also wichtige Forschungsubjekte der Biochmie, dreidimensionale Gebilde sind – eine Tatsache, die bei der Modellbildung berücksichtigt werden muss. Eine Antwort auf die genannten Herausforderungen ist der konzertierte Einsatz von Simulation und Visualisierung als Mittel des Erkenntnisgewinns. Damit ist die Informatik gefordert entsprechende dedizierte Werkzeuge zu entwickeln, die Simulation, Visualisierung und Interaktion im Kontext des von der Anwendungsdisziplin gesetzten räumlich-zeitlichen Problemkreises miteinander verbinden. In dieser Arbeit wird ein integriertes Konzept zu Simulation, Interaktivität und Visualisierung vorgelegt, das auf einer Anforderungsanalyse in Bezug auf Anforderungen an die Simulation und Anforderungen an die Interaktivität und Visualisierung basiert. Zur Lösung der aufgeworfenen Probleme wird ein „Baukastensystem“ auf Basis von Multi-Agenten-Systemen vorgeschlagen. Die Auswahl des geeigneten Simulationsverfahrens, z. B. die Auswahl eines stochastischen Verfahrens gegenüber einem deterministischen Verfahrens, wird so zur Auswahl eines Bausteins, wobei gezeigt wird, wie z. B. mit Hilfe von Regeln die Auswahl auch automatisiert werden kann. Ebenso wird gezeigt, wie man „Baussteine“ auch im räumlichen Sinne verstehen kann, als Dinge, die in einem dreidimensionalen Kontext einen bestimmten Raum einnehmen und die, in ihrer Gesamtheit betrachtet, den Beobachtungsraum der Simulation ausfüllen. Diese Bausteine finden sich entsprechend ebenfalls im Kontext der Interaktion wieder. Ein wichtiger Aspekt in diesem Baukastenkonzept ist die Frage der Kommunikationsstruktur und des Kommunikationsprotokolls, für den ein Vorschlag erarbeitet wird. Das entwickelte Gesamtkonzept besteht aus zwei Teilen: Einem Konzept für Ein- und Ausgabegeräte mit einer gemeinsamen Metapher, die die Geräte logisch in den Anwendungskontext einbettet und einem Simulations- und Visualisierungskonzept auf der Basis der Kopplung heterogener intelligenter Agenten in eine gemeinsame Simulationsumgebung. Hierfür wurde ein spezieller Dialekt einer Agentenkommunikationssprache entwickelt, der dabei insbesondere den Aspekt der dreidimensionalen Visualierung einer solchen Simulation berücksichtigt.
Diese längsschnittliche Fragebogenstudie soll einen Beitrag zur Erforschung des Konzeptes Kundenorientierung im Kontext der arbeitsbezogenen Stressforschung leisten. Kundenorientierung wurde in der Vergangenheit vorwiegend von der betriebswirtschaftlichen Seite betrachtet und empirisch häufig im Zusammenhang mit Kundenzufriedenheit untersucht. In organisationspsychologischen Stressstudien wurde das Thema Kundenorientierung nur unzureichend berücksichtigt. Darüber hinaus bestehen Unklarheiten in der Definition des Konzeptes. Die hier vorliegende Untersuchung betrachtet Kundenorientierung als Rollenübernahme im Sinne einer positiven Einstellung zu bzw. Identifikation mit dem Berufsbild des Dienstleisters. Zur Konstruktvalidierung von Kundenorientierung wurden verschiedene organisations-, arbeitsplatz- und personenbezogene Antezedenzen formuliert. Die vorgebrachten Hypothesen konnten anhand des querschnittlichen Datensatzes (N=1571t1 / N=1180t2) überwiegend empirisch bestätigt werden. Es konnte gezeigt werden, dass Kundenorientierung ein heterogenes Konstrukt ist und verschiedene Antezedenzen vorliegen, die in einem bedeutsamen Zusammenhang zur Kundenorientierung stehen. Um die Bedeutung von Kundenorientierung als persönliche interne Ressource herauszuarbeiten, wurde sowohl der direkte als auch der indirekte bzw. moderierende Wirkungsmechanismus von Kundenorientierung auf das Wohlbefinden untersucht. Als Kriterium diente Burnout, mit den drei Dimensionen der Emotionalen Erschöpfung, Depersonalisation und Persönlichen Leistungsfähigkeit. Zur Überprüfung der moderierenden und indirekten Effekte wurde der Stressor Emotionale Dissonanz eingesetzt. Zur Überprüfung dieser Effekte wurde der längsschnittliche Datensatz (597 Dienstleister aus vier von ursprünglich sechs verschiedenen Organisationen wurden nach 12-18 Monaten erneut befragt) herangezogen. In den durchgeführten moderierten Regressionsberechnungen erwies sich Kundenorientierung als bedeutsamer Moderator, der in der Lage ist, die positive Beziehung zwischen dem Stressor Emotionale Dissonanz und den Burnout-Dimensionen abzupuffern. Die Effekte konnten sowohl im Querschnitt als auch im Längsschnitt gezeigt werden. Eine Moderatorwirkung von Kundenorientierung im Zusammenhang mit dem Konzept der Persönlichen Leistungsfähigkeit konnte dagegen nicht nachgewiesen werden. Mit Hilfe von Strukturgleichungsmodellen wurde die Wirkungsrichtung zwischen Kundenorientierung, Emotionaler Dissonanz und der Stressreaktion Burnout untersucht. Bei der multivariaten Kausalanalyse gelangte das LISREL-Verfahren zur Anwendung, wobei verschiedene Modelle bezüglich ihrer Angemessenheit überprüft wurden. Die Befunde zu den direkten Effekten bestätigen die hier postulierte Hypothese, dass Kundenorientierung den Charakter einer internen Ressource hat und zur Verbesserung des Wohlbefindens beiträgt. Gleichzeitig zeigten aber nur die Modelle einen guten bzw. besseren Fit, bei denen auch der umgekehrte Kausaleffekt von der abhängigen auf die unabhängige Variable freigesetzt wurde. Der stärkste direkte Zusammenhang besteht dabei zwischen Kundenorientierung und der Variable der Persönlichen Leistungsfähigkeit. Bei der Untersuchung der indirekten Effekte konnte gezeigt werden, dass zwischen Emotionaler Dissonanz und Kundenorientierung keine direkte signifikante Beziehung vorliegt. Dagegen erwies sich Emotionale Dissonanz als bedeutsamer Stressor für Emotionale Erschöpfung und Depersonalisation, wobei in gleicher Weise wie bei der Kundenorientierung nur Modelle, die auch gleichzeitig den umgekehrten Kausaleffekt modellierten, einen guten Fit erkennen ließen. Daraus kann gefolgert werden, dass gegenseitige Effekte zwischen den Konstrukten bestehen und Rückkopplungsschleifen die beste Erklärung für das Wirkungsgefüge der untersuchten Variablen darstellen. Abschließend werden die Ergebnisse hinsichtlich ihrer Einordnung in theoretische Zusammenhänge und ihrer praktischen Konsequenzen diskutiert.
Die vorliegende prospektive Studie untersucht 66 retrograde und 4 antegrade geschlossene Marknagelungen bei Humerusschaftfrakturen mit einem ab dem 22. Patienten modifizierten Russell-Taylor-Nagel in einem Untersuchungszeitraum von 5 Jahren (1995 bis 2000). Behandelt wurden 52 frische Verletzungen, davon 2 offene Frakturen, 17 pathologische Frakturen und eine verzögerte Knochenbruchheilung. Nach der AO-Klassifikation waren außer C2 und C3 Frakturen alle Frakturtypen vertreten. Das durchschnittliche Patientenalter betrug 54 Jahre. Als schwerwiegendste intraoperative Komplikation sahen wir in 4 Fällen (5,7%) eine iatrogene Humerusfraktur, die eine zusätzliche Plattenosteosynthese erforderte. 6 distale Fissuren bedurften keiner weiteren Therapie. Eine posttraumatische Osteitis trat in keinem Fall auf. Ein Verfahrenswechsel war nicht notwendig. Bei 88% der Patienten ergab sich nach einem Jahr ein Punktestand von gut oder sehr gut nach dem Score nach Kwasny, wo neben der klinischen und radiologischen Untersuchung auch subjektive Befunde und die Kosmetik miteinbezogen wurden. Zusammenfassend beurteilen wir den von retrograd eingebrachten Russell-Taylor-Nagel mit seiner von uns vorgenommenen Modifizierung als ein geeignetes Implantat zur Stabilisierung von Humerusschaftfrakturen. Wesentliche Komplikationen des Verfahrens können unter Beachtung bestimmter technischer Regeln vermieden werden.
Analyse von Heuristiken
(2006)
Heuristiken treten insbesondere im Zusammenhang mit Optimierungsproblemen in Erscheinung, bei solchen Problemen also, bei denen nicht nur eine Lösung zu finden ist, sondern unter mehreren möglichen Lösungen eine in einem objektiven Sinne beste Lösung ausfindig gemacht werden soll. Beim Problem kürzester Superstrings werden Heuristiken herangezogen, da mit exakten Algorithmen in Anbetracht der APX-Vollständigkeit des Problems nicht zu rechnen ist. Gegeben ist eine Menge S von Strings. Gesucht ist ein String s, so dass jeder String aus S Teilstring von s ist. Die Länge von s ist dabei zu minimieren. Die prominenteste Heuristik für das Problem kürzester Superstrings ist die Greedy-Heuristik, deren Approximationsfaktor derzeit jedoch nur unzureichend beschränkt werden kann. Es wird vermutet (die sogenannte Greedy-Conjecture), dass der Approximationsfaktor genau 2 beträgt, bewiesen werden kann aber nur, dass er nicht unter 2 und nicht über 3,5 liegt. Die Greedy-Conjecture ist das zentrale Thema des zweiten Kapitels. Die erzielten Ergebnisse sind im Wesentlichen: * Durch die Betrachtung von Greedyordnungen können bedingte lineare Ungleichungen nutzbar gemacht werden. Dieser Ansatz ermöglicht den Einsatz linearer Programmierung zum Auffinden interessanter Instanzen und eine Vertiefung des Verständnisses solcher schwerer Instanzen. Dieser Ansatz wird eingeführt und eine Interpretation des dualen Problems wird dargestellt. * Für die nichttriviale, große Teilklasse der bilinearen Greedyordnungen wird gezeigt, dass die Länge des von der Greedy-Heuristik gefundenen Superstrings und die des optimalen Superstrings sich höchstens um die Größe einer optimalen Kreisüberdeckung der Strings unterscheiden. Da eine optimale Kreisüberdeckung einer Menge von Strings stets höchstens so groß ist wie ein optimaler Superstring (man schließe einen Superstring zu einem einzelnen Kreis), ist das erzielte Ergebnis für die betrachtete Teilklasse der Greedyordnungen stärker als die klassische Greedy-Conjecture. * Es wird eine neue bedingte lineare Ungleichung auf Strings -- die Tripelungleichung -- gezeigt, die für das eben genannte Hauptergebnis wesentlich ist. * Schließlich wird gezeigt, dass die zum Nachweis der oberen Schranke von 3,5 für den Approximationsfaktor herangezogenen bedingten Ungleichungen (etwa die Monge-Ungleichung) inhärent zu schwach sind, um die Greedy-Conjecture selbst für lineare Greedyordnungen zu beweisen. Also ist die neue Tripelungleichung auch notwendig. Zuletzt wird gezeigt, dass das um die Tripelungleichung erweiterte System bedingter linearer Ungleichungen inhärent zu schwach ist, um die klassische Greedy-Conjecture für beliebige Greedyordnungen zu beweisen. Mit der Analyse von Queueing Strategien im Adversarial Queueing Modell wird auch ein Fall betrachtet, in dem Heuristiken auf Grund von anwendungsspezifischen Forderungen wie Online-Setup und Lokalität eingesetzt werden. Pakete sollen in einem Netzwerk verschickt werden, wobei jeder Rechner nur begrenzte Information über den Zustand des Netzwerks hat. Es werden Klassen von Queueing Strategien untersucht und insbesondere untersucht, wovon Queueing Strategien ihre lokalen Entscheidungen abhängig machen sollten, um ein gewisses Qualitätsmerkmal zu erreichen. Die hier erzielten Ergebnisse sind: * Jede Queueing Strategie, die ohne Zeitstempel arbeitet, kann zu einer exponentiell großen Queue und damit zu exponentiell großer Verzögerung (im Durchmesser und der Knotenzahl des Netzwerks) gezwungen werden. Dies war bisher nur für konkrete prominente Strategien bekannt. * Es wird eine neue Technik zur Feststellung der Stabilität von Queueing Strategien ohne Zeitnahme vorgestellt, die Aufschichtungskreise. Mit ihrer Hilfe können bekannte Stabilitätsbeweise prominenter Strategien vereinheitlicht werden und weitere Stabilitätsergebnisse erzielt werden. * Für die große Teilklasse distanzbasierter Queueing Strategien gelingt eine vollständige Klassifizierung aller 1-stabilen und universell stabilen Strategien.
In der heutigen Zeit sieht sich das kulturelle Erbe der Völkergemeinschaft der Gefahr ausgesetzt, von der rasanten Entwicklung der Medientechnologien in den Hintergrund gedrängt und zerstört zu werden. Die Globalisierung von Wirtschaft und Gesellschaft führt auch zu einer kulturellen Globalisierung und damit zur Dominanz des von der westlichen Welt gelebten Kulturimperialismus. Einzelne Kulturformen verlieren ihren Platz in der Kulturweltgemeinschaft und wichtige Kulturgüter wie Literatur, Sprache, Mythen, Darstellungen oder Riten werden nach und nach verdrängt. Aus diesen Gründen ist es notwendig, dass sich die Theater- und Medienwissenschaftler mit diesen Kulturformen auseinandersetzen, sie erforschen und im Bewusstsein der Menschen erhalten. Diese Arbeit stellt eine unabhängige Untersuchung dar, die in dieser Form innerhalb eines geschlossenen gesellschaftlichen Systems nicht möglich gewesen wäre. Die letzte deutschsprachige Dissertation über den Stand der For-schung zu diesem Thema wurde vor knapp vierzig Jahren verfasst. Seitdem ist auch keine Untersuchung der Rezeption dieser Kunstform in Theater, Film und Medien in Europa erfolgt. Meiner Kenntnis nach existiert auch im Iran keine ver-gleichbare wissenschaftliche Arbeit, die sich mit dem untersuchten Themengebiet beschäftigt. Die Ta¬ziyeh ist eine sakrale Theaterform aus dem Iran, die sich über lange Zeit großer Beliebtheit in der eigenen Bevölkerung und Anerkennung durch westliche Reisende erfreute. Obwohl der Vormarsch der Medientechnologien, insbesondere die Verbreitung des Fernsehens und des Kinos im letzten Jahrhun-dert auch dazu geführt hat, dass das Ta¬ziyehritual zurückgedrängt wurde, ist es bemerkenswert, dass modernes Theater, Film und Fernsehen im Iran ihrerseits durch die Ta¬ziyehkultur und –praxis bis heute beeinflusst werden. Ich untersuche in meiner Promotionsarbeit die Geschichte und Auffüh-rung der Ta¬ziyeh, sowie ihre Rezeption im Theater, Film und Fernsehen im Iran. Die Ta¬ziyeh ist ein auf religiösen Riten beruhendes Passionsspiel, welches durch die Ideale und den Glauben der Schiiten begründet wurde und seinen Ursprung im Mythos des  hat. Für das Verständnis der Ta¬ziyeh ist über die Begriffsklärung hinaus sowohl ein grundlegender Überblick über die schiitische Glaubensrichtung, als auch ein Abriss der altiranischen Geschichte und Kultur im ersten Teil dieser Ar-beit unerlässlich. Außerdem werde ich auf die konkrete Ausgestaltung des schiiti-schen Passionsspiels eingehen. Besonders wichtig erscheinen mir hierbei der Ort der Aufführung des Schauspiels, die Dekoration und Requisiten, sowie die Art der Aufführung, zu der eine genaue Beschreibung der Schauspieler, ihrer Rollen, ihrer Kostüme, der begleitenden Musik und der für die Vorstellung benötigten Tiere gehört. Im weiteren Verlauf der Arbeit soll dann detailliert auf die theatralische Entwicklung der Ta¬ziyeh in der Zeit des 15.– 20. Jahrhunderts anhand von Be-richten berühmter Iranreisender eingegangen und eine Rezeption des letzten Jahr-hunderts im Hinblick auf die Ta¬ziyeh besprochen werden. Im dritten Teil der Arbeit analysiere ich nach der Klärung der Ta¬ziyehhistorie und -ästhetik in den ersten beiden Teilen schließlich ausführlich die Rezeption und Praxis der Ta¬ziyeh im modernen Theater, Film und anderen Medien im Iran. Diese Untersuchung bildet aus Sicht der Theater- und Medien-wissenschaften den wesentlichen Kern der Arbeit, in dem die im Untersuchungs-gegenstand beschriebene Synthese herausgearbeitet wird. Dafür werden exempla-risch zwanzig Werke bedeutender Künstler des Irans herangezogen, die den Ein-fluss des sakralen Rituals in einem säkularen Medium eindeutig aufzeigen. Den Abschluss der Arbeit bildet eine Synopsis der Untersuchungen, so-wie ein Ausblick auf die gegenwärtige Entwicklung der Ta¬ziyeh.
Es wurden 167 Patienten an 171 Hüften in den Jahren 1984 bis 2000 mit einer Hüftgelenktotalprothese versorgt und anhand der Auswertung von Röntgenbildern und Krankenblattunterlagen in einer randomisierten retrospektiven Studie betrachtet. Risikogruppen wurden mit erfasst. Es fanden sich unter den Untersuchten 56 Männer und 111 Frauen. Das vordergründige Untersuchungsziel bestand darin, den Einfluss dreier unterschiedlicher Bestrahlungsfeldgrößen auf die Suppression der Heterotopen Ossifikationen zu erfassen. Zum anderen sollte die Auswirkung des zeitlichen Abstandes des Bestrahlungstermins zum Operationszeitpunkt untersucht werden. Darüber hinaus ging es darum, durch eine umfangreiche Registrierung von Laborparametern und weiterer Kriterien Aufschluss über möglicherweise vorliegende Risikofaktoren für verstärkte Bildung von Heterotopen Ossifikationen zu erhalten. Alle Patienten wurden einzeitig (unfraktioniert ) mit einer Herddosis von 7 Gy (ca. 700 rad) bestrahlt. Die Feldgröße betrug in Gruppe 1 (102 operierte und radiotherapierte Hüften) 3 cm x 8,5 cm bis 5 cm x 10 cm. Gruppe 2 (29 Hüften) wurde mit einer konstanten Feldgröße von 10 cm x 10 cm therapiert. Zuletzt lieferte die Gruppe 3 (40 Hüften) Ergebnisse eines Bestrahlungsfeldes der Größe von 14 cm x 14 cm bis 17 cm x 20 cm. Die Nachuntersuchung erfolgte erstmals 14 bis 16 Wochen nach dem Eingriff und bezog sich primär auf den radiologischen Befund. In Gruppe 1 betrugen die klinisch und radiologisch relevanten Knochenneubildungen 4,9 %, und Gruppe 3 war mit 12,5 % vertreten. Eine Patientin war als „non responder“ zu bezeichnen. Sofern man diese Patientin herausrechnet, beziffern sich die Prozentangaben in Gruppe 1 auf 3,9 %, in Gruppe 2 auf 0,0 % und in Gruppe 3 auf 7,5 % klinisch und radiologisch relevante Knochenneubildungen. Der postoperative Bestrahlungstermin lag zwischen Tag 0 und 6. Dabei wurden 94,2 % der Hüften innerhalb der Tage 1 bis 4 therapiert. Die Patenten der Gruppen 1 und 2 wurden mittels eines 6 MV-Linearbeschleunigers nachbestrahlt. Die Patienten aus der Gruppe 3 wurden mittels Telekobalt 60-Isotop radiotherapiert. Ein Einfluss der Strahlengenerierung auf die Ossifikation ließ sich nicht nachweisen. Strahleninduzierte Wundheilungsstörungen fanden sich nicht. Es wurde 39-mal eine vollzementierte Prothese, 7-mal eine zementfreie Prothese und 125-mal eine Hybridprothese implantiert. Ein Zusammenhang zwischen verwendeten Prothesenarten und vermehrter Entstehung von HO konnte nicht aufgezeigt werden. Der operative Zugang erfolgte bei allen Eingriffen über den antero-lateralen Zugang nach Watson-Jones. Bezüglich der Operationsdauer, die im Mittel bei 68 Minuten lag, konnte die bisherige Erfahrung, wonach höhergradige Ossifikationen infolge langandauernder Eingriffe verstärkt auftreten, erneut bestätigt werden. Es wurden multiple labortechnische Parameter analysiert, ohne nachweisbaren Einfluss auf vermehrte HO. Die unfraktionierte Kleinfeldbestrahlung mit 7 Gy, idealerweise zwischen Tag 0 - 2, jedoch nicht später als bis zum 4. postoperativen Tag appliziert, konnte weiterhin als sinnvolle, schonende und für Patient und Personal weniger unaufwendige sowie kostengünstige Therapiestrategie herausgearbeitet werden. Von der Großfeldbestrahlung ist aufgrund schlechterer Ergebnisse hinsichtlich relevanter Ossifikationen und der größeren Strahlenbelastung des Gewebes unter dem Aspekt einer Malignomprävention, künftig besser kategorisch abzusehen. Die Bestrahlung mittlerer Feldgröße lieferte hinsichtlich der Verhinderung höhergradiger Ossifikationen die besten Ergebnisse, jedoch um den Preis einer etwas größeren Strahlenbelastung. Unter dem Aspekt des Schutzes des gesunden Gewebes, sollte künftig im Sinne des Shieldings mit der kleinen oder mittleren Feldgröße therapiert werden. Wobei sich hier bzgl. der Verwendung der Feldgrößen eine Gradwanderung in der Risiko-Nutzen-Relation vollzieht.
Die Schwerpunkte dieser Arbeit waren: - die Erhebung von Referenzwerten der multifokalen Elektroretinographie für die Augenklinik des Klinikums Ludwigshafen, - die Analyse der Topographie und Alterskorrelation, - der Vergleich der Referenzwerte mit den Werten bei Makulaerkrankungen - die Erstellung von Schwellwerten. An 169 gesunden Probanden, unterteilt in 8 Altersgruppen, wurden statistische Kennwerte erhoben. Das Probandenkollektiv wurde nach der Beurteilung der Alterskorrelation und Gruppenstrukturanalyse in 3 Altersgruppen eingeteilt. Aufgrund des Kennwertevergleichs zwischen Probanden und Patienten wurden mittels diagnostischer Tests Schwellenwerte berechnet: Tabelle 19. Zusammenfassung der Referenzwerte der Summenantworten und Schwellenwerte Gruppe N Ampl N Lat P Ampl P Lat <20J. -0,9 18,7 194,9 42,5 20-80J. -0,5 20 127,7 43,3 >80J. -0,4 18 86,6 44,4 Schwellenwert 0 - 80 - Die Analyse der Topographie der gemessenen Parameter zeigte eine charakteristische Größenverteilung der Amplituden mit einem Maximum im Zentrum und einem Abfall zur Peripherie hin. Die Auswertung der Latenzenverteilung in den Ringen führte zur keiner relevanten Dynamikbeobachtung in den Ringen der N-Latenz und einer nur diskreten P-Latenz-Reduktion zur Peripherie hin . Bei der Beurteilung von pathologischen Zuständen ist die Betrachtung der Amplituden und der N-Latenz vielversprechend. Dagegen müssen zur Latenztopographie und zu erkrankungsbedingten Veränderungen der Latenzzeiten noch eingehendere Untersuchungen erfolgen. Bei Kenntnis der Referenzwerte und Topographie kann das mfERG als wichtige diagnostische Hilfe bei lokalen retinalen Erkrankungen dienen. Als nicht invasive, von Patienten gut verträgliche und aussagekräftige Methode wird das mfERG im klinischen Alltag seinen Platz finden. Die in dieser Arbeit gewonnenen Referenzwerte werden am Klinikum Ludwigshafen bereits als Grundlage genutzt.
In der vorliegenden Studie wurden zwei Polyether und sechs additionsvernetzende Silikone hinsichtlich ihrer Dimensionsgenauigkeit untersucht. Mit Hilfe einer zu diesem Zweck hergestellten V2A-Stahlform konnte das Dimensionsverhalten isoliert betrachtet werden, ohne Einflussnahme anderer Parameter wie zum Beispiel durch die Desinfektion oder die Gipsexpansion. Von jedem Material wurden zehn Abformungen genommen, die mit Hilfe eines Stereomikroskops hinsichtlich ihres Dimensionsverhaltens vermessen wurden. Die Messungen wurde zu zwei Zeitpunkten durchgeführt: der erste Zeitpunkt entsprach dem vom Hersteller frühest möglichen angegebenen Termin zur Modellherstellung, die zweite Vermessung erfolgte nach insgesamt 90-minütiger Lagerung. Im Ergebnis zeigte sich, dass die Messstrecke 1 – 2 die wenigsten signifikanten Differenzen im Vergleich zu den durch Vorvermessungen erhaltenen Referenzwerten aufwies, während die Messstrecken 1 – 3, 1 – 4, 2 – 3 und 3 – 4 sich überwiegend signifikant von diesen unterschieden. Alle Materialien banden teilweise unter Kontraktion, teilweise unter Expansion ab. Hinsichtlich der Vermessungszeitpunkte lies sich bei Honigum ein verbessertes Dimensionsverhalten zum zweiten Vermessungszeitpunkt konstatieren. Bei den anderen getesteten Materialien war keine Abhängigkeit des Dimensionsverhaltens von den beiden Vermessungszeitpunkten feststellbar. Gegenüber den Referenzwerten reichten die Dimensionsveränderungen von 0,001 % bis zum Maximum von 0,19 %. Cirka zehn Prozent der erhaltenen Werte befanden sich in einem Bereich von > 0,1 % bzw. < -0,1 %. Insgesamt konnte den untersuchten Materialien zu beiden Vermessungszeitpunkten ein sehr gutes Dimensionsverhalten konstatiert werden, wobei weder die beiden Materialgruppen Polyether und additionsvernetzende Silikone qualitative Unterschiede zueinander aufwiesen, noch die jeweiligen Produkte selbst.
Die Populationsdurchseuchung mit Coxsackieviren im Raum Frankfurt am Main der Jahre 2000 bis 2002
(2006)
In dieser Arbeit wurde die Epidemiologie von Coxsackieviren durch retrospektive Auswertung der Antikörperantworten im Neutralisationstest untersucht. Dabei wurden die Durchseuchungen mit Coxsackieviren nach der Höhe der Titerstufen, nach der Abhängigkeit vom Geschlecht und vom Alter ausgewertet und Vergleiche zur wissenschaftlichen Literatur angestellt. Das Untersuchungsmaterial stammte von 689 Patienten aus dem Einzugsgebiet der Johann Wolfgang Goethe-Universitätsklinik. Vom untersuchten Patientenkollektiv wiesen zwischen ca. 8 und ca. 70 Prozent neutralisierende Antikörper gegen die Coxsackieviren der Serotypen A16, A9 und B1-B6 auf. Die höchste Anzahl an neutralisierenden Antikörpern waren gegen die Coxsackieviren des Serotyps B3 mit über 70 Prozent zu finden. Am niedrigsten war die Durchseuchung mit dem Coxsackievirus des Serotyps B6. Die Antikörpertiter wurden von 1:10 bis 1:1280 angegeben, wobei lediglich die Titerstufe 1:1280 als epidemiologisch auffällig gilt. Bei uns waren die niedrigen und mittleren Titerstufen häufiger vertreten als die hohen Titerstufen (1:1280). Von den im Neutralisationstest als positiv befundenen Seren wiesen gegen Coxsackievirus A9 nur 2,43% einen solchen erhöhten Antikörpertiter auf. Gegen Coxsackievirus B1 waren es 6,31%, gegen Coxsackievirus B2 4,83%, gegen B3 4,17%, gegen B4 4,66% und gegen B5 6,27%. Gegen Coxsackievirus A16 und B6 wurden keine signifikant erhöhten Antikörpertiter gefunden. 386 Seren stammten von männliche, 279 Seren von weiblichen Personen. Bei den restlichen Seren war keine Geschlechtsangabe dokumentiert worden. Prozentual gesehen, konnte man erkennen, dass Frauen häufiger neutralisierende Antikörper gegen die Coxsackieviren der Serotypen A16, B1, B4 und B5 besaßen, Männer dagegen gegen die Coxsackieviren der Serotypen A9, B2, B3 und B6. Bezogen auf alle acht untersuchten Coxsackieviren zeigten 53,05 % der Frauen neutralisierende Antikörper gegen Coxsackieviren auf und 51,78 % der Männer, statistisch gesehen ergab sich folglich kein signifikanter Unterschied. Bei Coxsackieviren der Gruppe A9, B1, B2, B3 und B5 waren mehr hohe Titerstufen beim männlichen Geschlecht zu finden, bei B4 beim weiblichen Geschlecht. Die Durchseuchungsraten waren über alle Altersgruppen konstant, folglich konnten keine mit dem Alter ansteigenden Durchseuchungsraten festgestellt werden. Die niedrigsten Antikörpertiter waren, außer bei Coxsackievirus-B5, in der Altersstufe der 1-4jährigen zu finden. Offenbar erfolgt die Durchseuchung mit Coxsackieviren folglich im Kleinkindesalter. Eine Bevorzugung einer bestimmten Altersgruppe war nicht zu erkennen, eine homogen niedrige Verteilung (~ 40%) im Gegensatz zu den anderen Serotypen konnte man bei den Coxsackieviren des Serotyps B1 ermitteln. Eine besonders hohe Verteilung fand sich dagegen bei Coxsackieviren der Gruppe B3 (~ 70%). Beim Vergleich mit der wissenschaftlichen Literatur konnten keine wesentlichen Veränderungen an der Populationsdurchseuchung mit Coxsackieviren festgestellt werden. Besonders im Raum Frankfurt blieben die Durchseuchungsraten fast identisch zu früheren Studien von vor 12-14 Jahren. Somit kann man eine Epidemie mit Coxsackieviren in den untersuchten Jahren ausschließen. Auch blieb die Durchseuchung mit Coxsackieviren unabhängig vom Geschlecht und vom Alter, wobei die niedrigeren Titerstufen durchweg häufiger vertreten waren.
In der vorliegenden Arbeit wird die Kopplung von Bloch- und Zyklotron-Oszillationen in Halbleiterübergittern unter dem Einfluss eines elektrischen und magnetischen Feldes zeitaufgelöst-elektro-optisch untersucht. Hierbei hängen sowohl die Stärke der Bloch-Zyklotron-Kopplung als auch die Charakteristika der kohärenten Ladungsträgerbewegung sensitiv von der relativen Anordnung der äußeren Felder ab. Bei gekreuzter Feldanordnung wird der Kohärente Hall-Effekt beobachtet. Semiklassisch lässt sich die Ladungsträgerdynamik in diesem Fall mit der Bewegungsgleichung eines nicht getriebenen, ungedämpften Pendels beschreiben. Abhängig vom Verhältnis E/B der äußeren Feldstärken lassen sich zwei Bewegungsregime mit gegensätzlicher Feldabhängigkeit der Frequenz der Ladungsträgeroszillationen unterscheiden. Bei schiefer Feldanordnung kommt es durch die nichtlineare Kopplung der Bloch-Oszillation mit der Zyklotron-Oszillation in der Übergitterebene zu einer phasenempfindlichen Gleichrichtung der transienten Oszillationen entlang der Wachstumsrichtung, wobei man in Resonanz eine Überhöhung dieses selbstinduzierten Gleichstroms beobachtet. In Anlehnung an ein analoges Phänomen, das an Josephson-Kontakten beobachtet wird, sprechen wir hierbei vom Fiske-Effekt. Für die räumliche Auslenkung X("unendlich") entlang der Wachstumsrichtung nach Abklingen der Kohärenz kann im Rahmen einer analytischen semiklassischen Näherung ein geschlossener Ausdruck angegeben werden. Die zeitaufgelösten Experimente zur Bloch-Zyklotron-Kopplung werden an zwei GaAs/Al0,3Ga0,7As-Übergitterstrukturen mit unterschiedlicher Quantentopfbreite durchgeführt. Im Spezialfall der gekreuzten Feldanordnung wird der Kohärente Hall-Effekt anhand der Existenz zweier Bewegungsregime mit ihrem charakteristischen Frequenz- und Dephasierungsverhalten in Abhängigkeit der äußeren Felder nachgewiesen und die lineare Abhängigkeit des Magnetfeldes am Übergang zwischen den Bewegungsregimen vom elektrischen Feld gezeigt. Die gleichermaßen prognostizierte Zunahme der Intensität höherer harmonischer Moden der Ladungsträgeroszillationen in der Nähe des Übergangs wird jedoch in der elektro-optischen Respons nicht beobachtet, wenngleich die verwendeten elektro-optischen Messtechniken im Vergleich zur Terahertz-Emissionsspektroskopie zur Untersuchung des Übergangsbereichs und höher frequenter Oszillationen prinzipiell besser geeignet sein sollten. Hierbei bestehende Einschränkungen werden diskutiert. Der für den Fall der schiefen Feldanordnung vorhergesagte selbstinduzierte Gleichstrom manifestiert sich experimentell in einem resonanzartigen Verlauf des elektro-optischen Signals nach Abklingen der Oszillationen in Abhängigkeit des Magnetfeldes. Durch Vergleich mit dem analytisch hergeleiteten Ausdruck für die räumliche Auslenkung lassen sich hieraus die relevanten Dämpfungskonstanten abschätzen und durch iterative Anpassung bestimmen. Die bei schiefer Feldanordnung mittels elektro-optischer Spektroskopie gemessenen Signale weisen nach Abklingen der kohärenten Ladungsträgeroszillationen nur einen sehr schwachen Driftanteil auf. Eine schlüssige Erklärung für diese Beobachtung ergibt sich, wenn bei der Behandlung der Ladungsträgerdynamik die Impuls- und Energierelaxation des Bloch-Oszillators unterschieden werden und eine sehr kleine Energiedämpfung angenommen wird.
Durch das Semantische Web soll es Maschinen ermöglicht werden Metadaten zu verstehen. Hierin steckt ein enormes Potenzial, wodurch sich der Umgang mit dem heutigen Internet grundlegend ändern kann. Das Semantische Web steht jedoch noch am Anfang. Es gilt noch einige offene und strittige Punkte zu klären. Das Fundament des Semantischen Webs wird durch das Resource Description Framework (RDF) gebildet, worauf sich diese Arbeit konzentriert. Hauptziel meiner Arbeit war die Verbesserung der Funktionalität und der Nutzungsfreundlichkeit für RDF-Speicher- und Anfragesysteme. Dabei stand die allgemeine Nutzung für ein Informationsportal oder eine Internetsuchmaschine im Vordergrund. Meine Überlegungen hierzu wurden in dem Speichersystem RDF-Source related Storage System (RDF-S3) und der darauf aufsetzenden Anfragesprache easy RDF Query Language (eRQL) umgesetzt. Insbesondere wurden die folgende Kernpunkte berücksichtigt: • Allgemeine Nutzbarkeit der Anfragesprache, sodass auch unerfahrene Nutzer einfach und schnell Anfragen erstellen können. Um auch von unerfahrenen Nutzern bedient werden zu können, konnte keine komplexe Syntax verwendet werden, wie dies bei den meisten existierenden Anfragesprachen der Fall ist. Es wurde sich daher an Anfragesprachen existierender Suchmaschinen angelehnt. Entsprechend bilden sogenannte Ein-Wort-Anfragen, die den Suchbegriffen entsprechen, eine wichtige Rolle. Um gezieltere Anfragen stellen zu können, sind jedoch die Schemainformationen der gespeicherten Daten sehr wichtig. Hier bietet bereits die RDF Query Language (RQL) viele hilfreiche Kurzschreibweisen, an die sich eRQL anlehnt. • Bereitstellung glaubwürdiger Metadaten, sodass den Anfrageergebnissen vertraut werden kann. Das Semantische Web ist ein verteiltes System, wobei keine Kontrolle auf die Datenquellen ausgeübt werden kann. Den Daten kann daher nicht ohne weiteres vertraut werden. Anders ist dies mit Metadaten, die von eigenen Systemen erzeugt wurden. Man weiß wie sie erzeugt wurden und kann ihnen entsprechend vertrauen. Wichtig ist eine klare Trennung zwischen den Daten und den Metadaten über diese, da sonst eine absichtliche Nachbildung der Metadaten von außen (Suchmaschinen-Spamming) das System unterlaufen kann. Für die Glaubwürdigkeit von Anfrageergebnissen sind vor allem die Herkunft der Daten und deren Aktualität entscheidend. In den umgesetzten Entwicklungen zu dieser Arbeit wurde sich daher auf diese Informationen konzentriert. In RDF-S3 wird die Verknüpfung der RDF-Aussage mit ihren Herkunftsdaten im Speichermodell abgebildet. Dies ermöglicht eine gezielte Ausnutzung dieser Daten in eRQL-Anfragen. Durch den sogenannten Dokumenten-Modus bietet eRQL die Möglichkeit Anfragen auf eine Gruppe von Quellen zu begrenzen oder bestimmte unglaubwürdige Quellen auszuschließen. Auch können die Herkunftsdaten das Anfrageergebniss erweitern und dadurch das Verständnis und die Glaubwürdigkeit für das Ergebnis erhöhen. • Anfrageergebnisse können um ihre Umgebung erweitert werden, sodass sie besser verstanden werden können. Für eRQL-Anfragen besteht die Möglichkeit die Umgebnung zu den Treffern (RDF-Aussagen) mit zu berücksichtigen und im Ergebnis mit anzuzeigen. Dies erhöht das Verständnis für die Ergebnisse. Weiterhin ergeben sich hierdurch neue Möglichkeiten wie das Auffinden von Pfaden zwischen Teilergebnissen einer Anfrage. • Unterstützung und Kombination von Daten- und Schemaanfragen. Mit eRQL werden beide Anfragetypen unterstützt und können sinnvoll miteinander kombiniert werden. Die Einbeziehung der Umgebung ermöglicht für die Kombination von Daten- und Schemaanfragen neue Möglichkeiten. Dabei werden sowohl Daten- als auch Schemaanfragen (oder deren Kombination) durch das Speichermodell von RDF-S3 optimal unterstützt. Weitere nennenswerte Eigenschaften von RDF-S3 und eRQL sind: • Durch die Möglichkeit gezielt einzelne Quellen wieder zu entfernen oder zu aktualisieren, bietet RDF-S3 eine gute Wartbarkeit der gespeicherten Daten. • RDF-S3 und eRQL sind zu 100 % in Java entwickelt, wodurch ihr Einsatz unabhängig vom Betriebssystem möglich ist. • Der Datenbankzugriff erfolgt über JDBC, wobei keine besonderen Eigenschaften für die verwendete RDBMS nötig sind . Dies sorgt für eine hohe Portabilität. RDF-S3 und eRQL wurden als Beispielimplementierungen entwickelt. Für einen produktiven Einsatz sollten die Systeme an die gegebene Hardware-Umgebung und Anwendungsfall angepasst werden. In Kapitel 6 werden Erweiterungen und Änderungsmöglichkeiten genannt, die je nach Situation geprüft werden sollten. Ein noch vorhandenes Problem für einen produktiven Einsatz auf großen Datenmengen ist die aufwendige Berechnung der Umgebungen für Anfrageergebnisse. Die Berechnung von Umgebungen im Vorhinein könnte hier eine Lösung sein, die jedoch durch die Möglichkeit der Einschränkung auf glaubwürdige Quellen erschwert wird.