Filtern
Dokumenttyp
- Dissertation (3)
- Bachelorarbeit (1)
- diplomthesis (1)
Sprache
- Deutsch (5) (entfernen)
Volltext vorhanden
- ja (5) (entfernen)
Gehört zur Bibliographie
- nein (5)
Schlagworte
- Neuronales Netz (5) (entfernen)
Institut
- Biochemie und Chemie (1)
- Biowissenschaften (1)
- Informatik (1)
- Informatik und Mathematik (1)
- Physik (1)
Die folgende Arbeit handelt von einem Human Computer Interaction Interface, welches es gestattet, mit Hilfe von Gesten zu schreiben. Das System ermöglicht seinen Nutzern, neue Gesten hinzuzufügen und zu verwenden. Da Gesten besser erkannt werden können, je genauer die Darstellung der Hände ist, wird diese durch Datenhandschuhe an den Computer übertragen. Die Hände werden einerseits in der Virtual Reality (VR) dargestellt, damit sie der Nutzer sieht. Andererseits werden die Daten, die die Gestenerkennung benötigt, an das Interface weitergeleitet. Die Erkennung der Gesten wird mit Hilfe eines Neuronales Netz (NN) implementiert. Dieses ist in der Lage, Gesten zu unterscheiden, sofern es genügend Trainingsdaten erhalten hat. Die genutzten Gesten sind entweder einhändig oder beidhändig auszuführen. Die Aussagen der Gesten beziehen sich in dieser Arbeit vor allem auf relationale Operatoren, die Beziehungen zwischen Objekten ausdrücken, wie beispielsweise „gleich“ oder „größer gleich“. Abschließend wird in dieser Arbeit ein System geschaffen, das es ermöglicht, mit Gesten Sätze auszudrücken. Dies betrifft das sogenannte gestische Schreiben nach Mehler, Lücking und Abrami 2014. Zu diesem Zweck befindet sich der Nutzer in einem virtuellen Raum mit Objekten, die er verknüpfen kann, wobei er Sätze in einem relationalen Kontext manifestiert.
Ein wesentlicher Forschungsgegenstand der Kernphysik ist die Untersuchung der Eigenschaften von Kernmaterie. Das Verständnis darüber gibt in Teilen Aufschluss über die Erscheinungsweise und Wechselwirkung von Materie. Ein Schlüssel liegt dabei in der Untersuchung der Modifikation der Eigenschaften von Hadronen in dem Medium Kernmaterie, das durch Parameter wie Dichte und Temperatur gekennzeichnet werden kann. Man hofft damit unter anderem Einblick in die Mechanismen zu bekommen, welche zur Massenbildung der Hadronen beitragen. Zur Untersuchung solcher Modifikationen eignen sich insbesondere Vektormesonen, die in e+e- Paare zerfallen. Die Leptonen dieser Paare wechselwirken nicht mehr stark mit der Materie innerhalb der Reaktionszone, und tragen somit wichtige Informationen ungestört nach außen. Das HADES-Spektrometer bei GSI wird dazu verwendet die leichten bei SIS-Energien produzierten Vektormesonen rho, omega und phi zu vermessen. Hierzu wurde zum erste mal das mittelschwere Stoßsystem Ar+KCl bei einer Strahlenergie von 1,76 AGeV gemessen. Die im Vergleich zum früher untersuchten System C+C höhere Spurmultiplizität innerhalb der Spektrometerakzeptanz verlangte eine Anpassung der bisher verwendeten Datenanalyse. Das bisher verwendete Verfahren, mehrere scharfe Schnitte auf verschiedene Observablen seriell anzuwenden, um einzelne Leptonspuren als solche zu identifizieren, wurde durch eine neu entwickelte multivariate Analyse ersetzt. Dabei werden die Informationen aller beteiligten Observablen mit Hilfe eines Algorithmus zeitgleich zusammengeführt, damit Elektronen und Positronen vom hadronischen Untergrund getrennt werden können. Durch Untersuchung mehrerer Klassifizierer konnte ein mehrschichtiges künstliches neuronalen Netz als am besten geeigneter Algorithmus identifiziert werden. Diese Art der Analyse hat den Vorteil, dass sie viel robuster gegenüber Fluktuationen in einzelnen Observablen ist, und sich somit die Effizienz bei gleicher Reinheit steigern lässt. Die Rekonstruktion von Teilchenspuren im HADES-Spektrometer basiert nur auf wenigen Ortsinformationen. Daher können einzelne vollständige Spuren a priori nicht als solche gleich erkannt werden. Vielmehr werden durch verschiedene Kombinationen innerhalb derselben Mannigfaltigkeit von Positionspunkten mehr Spuren zusammengesetzt, als ursprünglich produziert wurden. Zur Identifikation des maximalen Satzes eindeutiger Spuren eines Ereignisses wurde eine neue Methode der Spurselektion entwickelt. Während dieser Prozedur werden Informationen gewonnen, die im weiteren Verlauf der Analyse zur Detektion von Konversions- und pi0-Dalitz-Paaren genutzt werden, die einen großen Beitrag zum kombinatorischen Untergrund darstellen. Als Ergebnis wird das effizienzkorrigierte, und auf die mittlere Zahl der Pionen pro Ereignis normierte, Spektrum der invarianten Elektronpaarmasse präsentiert. Erste Vergleiche mit der konventionellen Analysemethode zeigen dabei eine um etwa 30% erhöhte Rekonstruktionseffizienz. Das Massenspektrum setzt sich aus mehr als 114.000 Paaren zusammen -- über 16.000 davon mit einer Masse größer als 150 MeV. Ein erster Vergleich mit einem einfachen thermischen Modell, welches durch den Ereignisgenerator Pluto dargestellt wird, eröffnet die Möglichkeit, die hier gefundenen Produktionsraten des omega- und phi-Mesons durch m_T-Skalierung an die durch andere Experimente ermittelten Raten des eta zu koppeln. In diesem Zusammenhang findet sich weiterhin ein von der Einschussenergie abhängiger Produktionsüberschluss von F(1,76) = Y_total/Y_PLUTO = 5,3 im Massenbereich M = 0,15...0,5 GeV/c^2. Die theoretische Erklärung dieses Überschusses birgt neue Erkenntnisse zu den in-Medium Eigenschaften von Hadronen.
Im heutigen Zahlungsverkehr übernehmen in zunehmendem Maße Zahlungen mit Kreditkarten eine entscheidende Rolle. Entsprechend der Verbreitung dieser Art des Zahlungsverkehrs nimmt ebenfalls der Mißbrauch mit diesem bargeldlosen Zahlungsmittel zu. Um die Verluste, die bei dem Kreditkarteninstitut auf diese Weise entstehen, so weit wie möglich einzudämmen, wird versucht, Mißbrauchstransaktionen bei der Autorisierung der Zahlungsaufforderung zu erkennen. Ziel dieser Diplomarbeit ist es zu bestimmen, in wie weit es möglich ist, illegale Transaktionen aus der Menge von Autorisierungsanfragen mit Hilfe adaptiver Algorithmen aufzudecken. Dabei sollen sowohl Methoden aus dem Bereich des Data-Mining, als auch aus den Bereichen der neuronalen Netze benutzt werden. Erschwerend bei der Mißbrauchsanalyse kommt hinzu, daß die Beurteilung der einzelnen Transaktionen in Sekundenbruchteilen abgeschlossen sein muß, um die hohe Anzahl an Autorisierungsanfragen verarbeiten zu können und den Kundenservice auf Seiten des Benutzers und des Händlers auf diese Weise zu optimieren. Weiter handelt es sich bei einem Großteil der bei der Analyse zu Verfügung stehenden Datensätze um symbolische Daten, also alpha-numerisch kodierte Werte, die stellvertretend für verschiedene Eigenschaften verwendet werden. Nur wenige der Transaktionsdaten sind analoger Natur, weisen also eine Linearität auf, die es erlaubt, "Nachbarschaften" zwischen den Daten bestimmen zu können. Damit scheidet eine reine Analyse auf Basis von neuronalen Netzwerken aus. Diese Problematik führte unter anderem zu dem verfolgten Ansatz. Als Grundlage der Analyse dienen bekannte Mißbrauchstransaktionen aus einem Zeitintervall von ungefähr einem Jahr, die jedoch aufgrund der hohen Anzahl nicht komplett als solche mit den eingehenden Transaktionen verglichen werden können, da ein sequentieller Vergleich zu viel Zeit in Anspruch nähme. Im übrigen würde durch einen einfachen Vergleich nur der schon bekannte Mißbrauch erkannt werden; eine Abstraktion der Erkenntnisse aus den Mißbrauchserfahrungen ist nicht möglich. Aus diesem Grund werden diese Mißbrauchstransaktionen mit Hilfe von Methoden aus dem Bereich des Data-Mining verallgemeinert und damit auf ein Minimum, soweit es die Verläßlichkeit dieser Datensätze zuläßt, reduziert. Desweiteren schließt sich eine Analyse der zu diesem Zeitpunkt noch nicht betrachteten analogen Daten an, um die maximale, enthaltene Information aus den Transaktionsdaten zu beziehen. Dafür werden moderne Methoden aus dem Bereich der neuronalen Netzwerke, sogenannte radiale Basisfunktionsnetze, verwendet. Da eine Mißbrauchsanalyse ohne eine entsprechende Profilanalyse unvollständig wäre, wurde abschließend mit den vorhanden Mitteln auf den zugrunde liegenden Daten in Anlehnung an die bisherige Methodik eine solche Profilauswertung und zeitabhängige Analyse realisiert. Mit dem so implementierten Modell wurde versucht, auf allgemeine Art und Weise, Verhaltens- beziehungsweise Transaktionsmuster einzuordnen und mit bei der Mißbrauchsentscheidung einfließen zu lassen. Aus den vorgestellten Analyseverfahren wurden verschiedene Klassifizierungsmodelle entwickelt, die zu guten Ergebnissen auf den Simulationsdaten führen. Es kann gezeigt werden, daß die Mißbrauchserkennung durch eine kombinierte Anwendung aus symbolischer und analoger Auswertung bestmöglich durchzuführen ist.
Das Ziel dieser Arbeit war es, RNA-Strukturen als potentielle Zielstrukturen für die Medikamentenentwicklung zu untersuchen. Hierbei ging es im Speziellen um die Anwendung Virtueller Screening Verfahren für die RNA-Liganden-Vorhersage. Hierzu wurde die als TAR-Motiv (transactivating response element) bekannte RNA-Struktur der mRNAs des HI-Virus ausgewählt. Diese Struktur wurde gewählt, da mit den vier PDB-Einträgen 1ANR, 1ARJ, 1LVJ und 1QD3 bereits experimentell motivierte Strukturmodelle zum Beginn der Untersuchung vorlagen. Ausschlaggebend war hierbei auch das Vorhandensein eines Tat-TAR-FRET-Assays im Rahmen des SFB 579, in welchem diese Arbeit angefertigt wurde. Die Aufmerksamkeit, welche dem HI-Virus im Rahmen der Bekämpfung der Immunschwächekrankheit bereits zukam, führte bei dem gewählten Testmodell ebenfalls zu einem, wenn auch immer noch überschaubaren Datensatz bereits getesteter Substanzen, der als Grundlage für einen Liganden-basierten Ansatz als erste Basis dienen konnte. Basierend auf diesen Voruntersuchungen ergaben sich die weiteren Schritte dieser Arbeit. Die Arbeit lässt sich zusammenfassend in vier zum Teil parallel verlaufende Phasen einteilen: Phase 1:Bestandsaufnahme bekannter Informationen über die Zielstruktur · experimentell bestimmte Zielstrukturen · experimentell bestimmte Liganden/Nichtliganden der Zielstruktur Phase 2: Ableiten eines ligandenbasierten Ansatzes zur Vorhersage von potentiellen Bindern der Zielstruktur aus Substanzbibliotheken, der nicht auf Strukturdaten der Zielstruktur beruht. Phase 3: Analyse der bekannten Konformere der Zielstruktur auf konstante Angriffspunkte für ein spezielles Liganden-Design. Phase 4: Einbinden der bekannten Strukturinformationen der Zielstruktur zur weiteren Verfeinerung der Auswahlverfahren neuer Kandidaten für die weitere experimentelle Bestimmung des Bindeverhaltens. Im Rahmen dieser Arbeit konnten mittels der Anwendung von künstlichen neuronalen Netzen in einem ligandenbasierten Ansatz durch virtuelles Screening der Chemikalien-Datenbanken verschiedener Lieferanten fünf neue potentielle TAR-RNA-Liganden identifiziert werden (drei davon mit einem Methylenaminoguanidyl-Substrukturmotiv), sowie als „Spin-Off“ durch die Anwendung der ursprünglich nur für den Tat-TAR-FRET-Assay vorgesehenen Testsubstanzen in einem Kooperationsprojekt (mittels CFivTT-Assay) zwei neue potentiell antibakterielle Verbindungen identifiziert werden. Die Beschäftigung mit der offensichtlichen Flexibilität der TAR-RNA und damit einer nicht eindeutig zu definierenden Referenz-Zielstruktur für das Liganden-Docking führte zur Erstellung eines Software-Pakets, mit dem flexible Zielstrukturen – basierend auf den Konformer-Datensätzen von MD-Simulationen – auf konstante Angriffspunkte untersucht werden können. Hierbei wurde ausgehend von der Integration eines Taschenvorhersage-Programms (PocketPicker) eine Reihe von Filtern implementiert, die auf den hierzu in einer MySQL-Datenbank abgelegten Strukturinformationen eine Einschränkung des möglichen Taschenraums für das zukünftige Liganden-Design automatisiert vornehmen können. Des Weiteren ermöglicht dieser Ansatz einen einfachen Zugriff auf die einzelnen Konformere und die Möglichkeit Annotationen zu den Konformeren und den daraus abgeleiteten Tascheninformationen hinzuzufügen, so dass diese Informationen für die Erstellung von Liganden-Docking-Versuchen verwendet werden können. Ferner wurden im Rahmen dieser Arbeit ein neuer Deskriptor für die Beschreibung von Taschenoberflächen eingeführt: der auf der „Skalierungs-Index-Methode“ basierende molekulare SIMPrint. Die Beschäftigung mit der Verteilung der potentiellen Bindetaschen auf der Oberfläche der Konformerensemble führte ferner zur Definition der Taschenoberflächenbildungswahrscheinlichkeit (Pocket Surface Generation Probability – PSGP) für einzelne Atome einer Zielstruktur, die tendenziell für die Einschätzung der Ausbildung einer potentiell langlebigen Interaktion eines Liganden mit der Zielstruktur herangezogen werden kann, um beispielsweise Docking-Posen zu bewerten.
Kenntnisse über die dreidimensionale Struktur therapeutisch relevanter Zielproteine bieten wertvolle Informationen für den rationalen Wirkstoffentwurf. Die stetig wachsende Zahl aufgeklärter Kristallstrukturen von Proteinen ermöglicht eine qualitative und quantitative rechnergestützte Untersuchung von spezifischen Protein-Liganden Wechselwirkungen. Im Rahmen dieser Arbeit wurden neue Algorithmen für die Identifikation und den Ähnlichkeitsvergleich von Proteinbindetaschen und ihren Eigenschaften entwickelt und in dem Programm PocketomePicker zusammengefasst. Die Software gliedert sich in die Routinen PocketPicker, PocketShapelets und PocketGraph. Ferner wurde in dieser Arbeit die Methode ReverseLIQUID reimplementiert und im Rahmen einer Kooperation für das strukturbasierte Virtuelle Screening angewendet. Die genannten Methoden und ihre wissenschaftliche Anwendungen sollte hier zusammengefasst werden: Die Methode PocketPicker ermöglicht die Vorhersage potentieller Bindetaschen auf Proteinoberflächen. Diese Technik implementiert einen geometrischen Ansatz auf Basis „künstlicher Gitter“ zur Identifikation zusammenhängender vergrabener Bereiche der Proteinoberfläche als Orte möglicher Ligandenbindestellen. Die Methode erreicht eine korrekte Vorhersage der tatsächlichen Bindetasche für 73 % der Einträge eines repräsentativen Datensatzes von Proteinstrukturen. Für 90 % der Proteinstrukturen wird die tatsächlich Ligandenbindestelle unter den drei wahrscheinlichsten vorhergesagten Taschen gefunden. PocketPicker übertrifft die Vorhersagequalität anderer etablierter Algorithmen und ermöglicht Taschenidentifikationen auf apo-Strukturen ohne signifikante Einbußen des Vorhersageerfolges. Andere Verfahren weisen deutlich eingeschränkte Ergebnisse bei der Anwendung auf apo-Strukturen auf. PocketPicker erlaubt den alignmentfreien Ähnlichkeitsvergleich von Bindetaschenfor-men durch die Kodierung berechneter Bindevolumen als Korrelationsdeskriptoren. Dieser Ansatz wurde erfolgreich für Funktionsvorhersage von Bindetaschen aus Homologiemodellen von APOBEC3C und Glutamat Dehydrogenase des Malariaerregers Plasmodium falciparum angewendet. Diese beiden Projekte wurden in Zusammenarbeit mit Kollaborationspartnern durchgeführt. Zudem wurden PocketPicker Korrelationsdeskriptoren erfolgreich für die automatisierte Konformationsanalyse der enzymatischen Tasche von Aldose Reduktase angewendet. Für detaillierte Analysen der Form und der physikochemischen Eigenschaften von Proteinbindetaschen wurde in dieser Arbeit die Methode PocketShapelets entwickelt. Diese Technik ermöglicht strukturelle Alignments von extrahierten Bindevolumen durch Zerlegungen der Oberfläche von Proteinbindetaschen. Die Überlagerung gelingt durch die Identifikation strukturell ähnlicher Oberflächenkurvaturen zweier Taschen. PocketShapelets wurde erfolgreich zur Analyse funktioneller Ähnlichkeit von Bindetaschen verwendet, die auf Betrachtungen physikochemischer Eigenschaften basiert. Zur Analyse der topologischen Vielfalt von Bindetaschengeometrien wurde in dieser Arbeit die Methode PocketGraph entwickelt. Dieser Ansatz nutzt das Konzept des sog. „Wachsenden Neuronalen Gases“ aus dem Bereich des maschinellen Lernens für eine automatische Extraktion des strukturellen Aufbaus von Bindetaschen. Ferner ermöglicht diese Methode die Zerlegung einer Bindestelle in ihre Subtaschen. Die von PocketPicker charakterisierten Taschenvolumen bilden die Grundlage für die Methode ReverseLIQUID. Dieses Programm wurde in dieser Arbeit weiterentwickelt und im Rahmen einer Kooperation zur Identifikation eines Inhibitors der Serinprotease HtrA des Erregers Helicobacter pylori verwendet. Mit ReverseLIQUID konnte ein strukturbasiertes Pharmakophormodell für das Virtuelle Screening erstellt werden. Dieser Ansatz ermöglichte die Identifikation einer Substanz mit niedrig mikromolarer Affinität gegenüber der Zielstruktur.