Refine
Document Type
- Doctoral Thesis (2) (remove)
Language
- German (2) (remove)
Has Fulltext
- yes (2)
Is part of the Bibliography
- no (2)
Keywords
- Datenbank (2) (remove)
Institute
- Biochemie und Chemie (1)
- Informatik (1)
Durch das Semantische Web soll es Maschinen ermöglicht werden Metadaten zu verstehen. Hierin steckt ein enormes Potenzial, wodurch sich der Umgang mit dem heutigen Internet grundlegend ändern kann. Das Semantische Web steht jedoch noch am Anfang. Es gilt noch einige offene und strittige Punkte zu klären. Das Fundament des Semantischen Webs wird durch das Resource Description Framework (RDF) gebildet, worauf sich diese Arbeit konzentriert. Hauptziel meiner Arbeit war die Verbesserung der Funktionalität und der Nutzungsfreundlichkeit für RDF-Speicher- und Anfragesysteme. Dabei stand die allgemeine Nutzung für ein Informationsportal oder eine Internetsuchmaschine im Vordergrund. Meine Überlegungen hierzu wurden in dem Speichersystem RDF-Source related Storage System (RDF-S3) und der darauf aufsetzenden Anfragesprache easy RDF Query Language (eRQL) umgesetzt. Insbesondere wurden die folgende Kernpunkte berücksichtigt: • Allgemeine Nutzbarkeit der Anfragesprache, sodass auch unerfahrene Nutzer einfach und schnell Anfragen erstellen können. Um auch von unerfahrenen Nutzern bedient werden zu können, konnte keine komplexe Syntax verwendet werden, wie dies bei den meisten existierenden Anfragesprachen der Fall ist. Es wurde sich daher an Anfragesprachen existierender Suchmaschinen angelehnt. Entsprechend bilden sogenannte Ein-Wort-Anfragen, die den Suchbegriffen entsprechen, eine wichtige Rolle. Um gezieltere Anfragen stellen zu können, sind jedoch die Schemainformationen der gespeicherten Daten sehr wichtig. Hier bietet bereits die RDF Query Language (RQL) viele hilfreiche Kurzschreibweisen, an die sich eRQL anlehnt. • Bereitstellung glaubwürdiger Metadaten, sodass den Anfrageergebnissen vertraut werden kann. Das Semantische Web ist ein verteiltes System, wobei keine Kontrolle auf die Datenquellen ausgeübt werden kann. Den Daten kann daher nicht ohne weiteres vertraut werden. Anders ist dies mit Metadaten, die von eigenen Systemen erzeugt wurden. Man weiß wie sie erzeugt wurden und kann ihnen entsprechend vertrauen. Wichtig ist eine klare Trennung zwischen den Daten und den Metadaten über diese, da sonst eine absichtliche Nachbildung der Metadaten von außen (Suchmaschinen-Spamming) das System unterlaufen kann. Für die Glaubwürdigkeit von Anfrageergebnissen sind vor allem die Herkunft der Daten und deren Aktualität entscheidend. In den umgesetzten Entwicklungen zu dieser Arbeit wurde sich daher auf diese Informationen konzentriert. In RDF-S3 wird die Verknüpfung der RDF-Aussage mit ihren Herkunftsdaten im Speichermodell abgebildet. Dies ermöglicht eine gezielte Ausnutzung dieser Daten in eRQL-Anfragen. Durch den sogenannten Dokumenten-Modus bietet eRQL die Möglichkeit Anfragen auf eine Gruppe von Quellen zu begrenzen oder bestimmte unglaubwürdige Quellen auszuschließen. Auch können die Herkunftsdaten das Anfrageergebniss erweitern und dadurch das Verständnis und die Glaubwürdigkeit für das Ergebnis erhöhen. • Anfrageergebnisse können um ihre Umgebung erweitert werden, sodass sie besser verstanden werden können. Für eRQL-Anfragen besteht die Möglichkeit die Umgebnung zu den Treffern (RDF-Aussagen) mit zu berücksichtigen und im Ergebnis mit anzuzeigen. Dies erhöht das Verständnis für die Ergebnisse. Weiterhin ergeben sich hierdurch neue Möglichkeiten wie das Auffinden von Pfaden zwischen Teilergebnissen einer Anfrage. • Unterstützung und Kombination von Daten- und Schemaanfragen. Mit eRQL werden beide Anfragetypen unterstützt und können sinnvoll miteinander kombiniert werden. Die Einbeziehung der Umgebung ermöglicht für die Kombination von Daten- und Schemaanfragen neue Möglichkeiten. Dabei werden sowohl Daten- als auch Schemaanfragen (oder deren Kombination) durch das Speichermodell von RDF-S3 optimal unterstützt. Weitere nennenswerte Eigenschaften von RDF-S3 und eRQL sind: • Durch die Möglichkeit gezielt einzelne Quellen wieder zu entfernen oder zu aktualisieren, bietet RDF-S3 eine gute Wartbarkeit der gespeicherten Daten. • RDF-S3 und eRQL sind zu 100 % in Java entwickelt, wodurch ihr Einsatz unabhängig vom Betriebssystem möglich ist. • Der Datenbankzugriff erfolgt über JDBC, wobei keine besonderen Eigenschaften für die verwendete RDBMS nötig sind . Dies sorgt für eine hohe Portabilität. RDF-S3 und eRQL wurden als Beispielimplementierungen entwickelt. Für einen produktiven Einsatz sollten die Systeme an die gegebene Hardware-Umgebung und Anwendungsfall angepasst werden. In Kapitel 6 werden Erweiterungen und Änderungsmöglichkeiten genannt, die je nach Situation geprüft werden sollten. Ein noch vorhandenes Problem für einen produktiven Einsatz auf großen Datenmengen ist die aufwendige Berechnung der Umgebungen für Anfrageergebnisse. Die Berechnung von Umgebungen im Vorhinein könnte hier eine Lösung sein, die jedoch durch die Möglichkeit der Einschränkung auf glaubwürdige Quellen erschwert wird.
Das Ziel dieser Arbeit war es, RNA-Strukturen als potentielle Zielstrukturen für die Medikamentenentwicklung zu untersuchen. Hierbei ging es im Speziellen um die Anwendung Virtueller Screening Verfahren für die RNA-Liganden-Vorhersage. Hierzu wurde die als TAR-Motiv (transactivating response element) bekannte RNA-Struktur der mRNAs des HI-Virus ausgewählt. Diese Struktur wurde gewählt, da mit den vier PDB-Einträgen 1ANR, 1ARJ, 1LVJ und 1QD3 bereits experimentell motivierte Strukturmodelle zum Beginn der Untersuchung vorlagen. Ausschlaggebend war hierbei auch das Vorhandensein eines Tat-TAR-FRET-Assays im Rahmen des SFB 579, in welchem diese Arbeit angefertigt wurde. Die Aufmerksamkeit, welche dem HI-Virus im Rahmen der Bekämpfung der Immunschwächekrankheit bereits zukam, führte bei dem gewählten Testmodell ebenfalls zu einem, wenn auch immer noch überschaubaren Datensatz bereits getesteter Substanzen, der als Grundlage für einen Liganden-basierten Ansatz als erste Basis dienen konnte. Basierend auf diesen Voruntersuchungen ergaben sich die weiteren Schritte dieser Arbeit. Die Arbeit lässt sich zusammenfassend in vier zum Teil parallel verlaufende Phasen einteilen: Phase 1:Bestandsaufnahme bekannter Informationen über die Zielstruktur · experimentell bestimmte Zielstrukturen · experimentell bestimmte Liganden/Nichtliganden der Zielstruktur Phase 2: Ableiten eines ligandenbasierten Ansatzes zur Vorhersage von potentiellen Bindern der Zielstruktur aus Substanzbibliotheken, der nicht auf Strukturdaten der Zielstruktur beruht. Phase 3: Analyse der bekannten Konformere der Zielstruktur auf konstante Angriffspunkte für ein spezielles Liganden-Design. Phase 4: Einbinden der bekannten Strukturinformationen der Zielstruktur zur weiteren Verfeinerung der Auswahlverfahren neuer Kandidaten für die weitere experimentelle Bestimmung des Bindeverhaltens. Im Rahmen dieser Arbeit konnten mittels der Anwendung von künstlichen neuronalen Netzen in einem ligandenbasierten Ansatz durch virtuelles Screening der Chemikalien-Datenbanken verschiedener Lieferanten fünf neue potentielle TAR-RNA-Liganden identifiziert werden (drei davon mit einem Methylenaminoguanidyl-Substrukturmotiv), sowie als „Spin-Off“ durch die Anwendung der ursprünglich nur für den Tat-TAR-FRET-Assay vorgesehenen Testsubstanzen in einem Kooperationsprojekt (mittels CFivTT-Assay) zwei neue potentiell antibakterielle Verbindungen identifiziert werden. Die Beschäftigung mit der offensichtlichen Flexibilität der TAR-RNA und damit einer nicht eindeutig zu definierenden Referenz-Zielstruktur für das Liganden-Docking führte zur Erstellung eines Software-Pakets, mit dem flexible Zielstrukturen – basierend auf den Konformer-Datensätzen von MD-Simulationen – auf konstante Angriffspunkte untersucht werden können. Hierbei wurde ausgehend von der Integration eines Taschenvorhersage-Programms (PocketPicker) eine Reihe von Filtern implementiert, die auf den hierzu in einer MySQL-Datenbank abgelegten Strukturinformationen eine Einschränkung des möglichen Taschenraums für das zukünftige Liganden-Design automatisiert vornehmen können. Des Weiteren ermöglicht dieser Ansatz einen einfachen Zugriff auf die einzelnen Konformere und die Möglichkeit Annotationen zu den Konformeren und den daraus abgeleiteten Tascheninformationen hinzuzufügen, so dass diese Informationen für die Erstellung von Liganden-Docking-Versuchen verwendet werden können. Ferner wurden im Rahmen dieser Arbeit ein neuer Deskriptor für die Beschreibung von Taschenoberflächen eingeführt: der auf der „Skalierungs-Index-Methode“ basierende molekulare SIMPrint. Die Beschäftigung mit der Verteilung der potentiellen Bindetaschen auf der Oberfläche der Konformerensemble führte ferner zur Definition der Taschenoberflächenbildungswahrscheinlichkeit (Pocket Surface Generation Probability – PSGP) für einzelne Atome einer Zielstruktur, die tendenziell für die Einschätzung der Ausbildung einer potentiell langlebigen Interaktion eines Liganden mit der Zielstruktur herangezogen werden kann, um beispielsweise Docking-Posen zu bewerten.