Refine
Document Type
- Article (3)
- Conference Proceeding (3)
- Doctoral Thesis (2)
- Part of a Book (1)
- diplomthesis (1)
- Preprint (1)
- Report (1)
Language
- German (9)
- Portuguese (2)
- English (1)
Has Fulltext
- yes (12) (remove)
Is part of the Bibliography
- no (12)
Keywords
- Datenbank (12) (remove)
Institute
Mehr Geld für BND und Verfassungsschutz, bessere Vernetzung der europäischen Datenbanken, die Schaffung eines Ein- und Ausreiseregisters, die Übermittlung von europäischen Fluggastdaten an die Sicherheitsbehörden der EU-Mitgliedsstaaten, mehr Videoüberwachung, Kennzeichenlesesysteme, Biometrie – und vieles mehr. Detaillierte Angaben dazu, ob die angepeilten Maßnahmen überhaupt wirksam sind, werden selten gegeben. Politische Entscheidungsträger denken sich in der Regel nicht selbst aus, was gebraucht wird, vielmehr werden von den Sicherheitsbehörden Bedarfe angemeldet, die ihrer Arbeitslogik entsprechen. Und die sagt im Zweifelsfall: mehr hilft mehr. So sind im Zuge der Bekämpfung des Terrorismus im Laufe der letzten 15 Jahre unzählige verdachtsabhängige und verdachtsunabhängige Maßnahmen ergriffen worden. Allein auf Ebene der EU waren es mehr als 250...
Das Ziel dieser Arbeit war es, RNA-Strukturen als potentielle Zielstrukturen für die Medikamentenentwicklung zu untersuchen. Hierbei ging es im Speziellen um die Anwendung Virtueller Screening Verfahren für die RNA-Liganden-Vorhersage. Hierzu wurde die als TAR-Motiv (transactivating response element) bekannte RNA-Struktur der mRNAs des HI-Virus ausgewählt. Diese Struktur wurde gewählt, da mit den vier PDB-Einträgen 1ANR, 1ARJ, 1LVJ und 1QD3 bereits experimentell motivierte Strukturmodelle zum Beginn der Untersuchung vorlagen. Ausschlaggebend war hierbei auch das Vorhandensein eines Tat-TAR-FRET-Assays im Rahmen des SFB 579, in welchem diese Arbeit angefertigt wurde. Die Aufmerksamkeit, welche dem HI-Virus im Rahmen der Bekämpfung der Immunschwächekrankheit bereits zukam, führte bei dem gewählten Testmodell ebenfalls zu einem, wenn auch immer noch überschaubaren Datensatz bereits getesteter Substanzen, der als Grundlage für einen Liganden-basierten Ansatz als erste Basis dienen konnte. Basierend auf diesen Voruntersuchungen ergaben sich die weiteren Schritte dieser Arbeit. Die Arbeit lässt sich zusammenfassend in vier zum Teil parallel verlaufende Phasen einteilen: Phase 1:Bestandsaufnahme bekannter Informationen über die Zielstruktur · experimentell bestimmte Zielstrukturen · experimentell bestimmte Liganden/Nichtliganden der Zielstruktur Phase 2: Ableiten eines ligandenbasierten Ansatzes zur Vorhersage von potentiellen Bindern der Zielstruktur aus Substanzbibliotheken, der nicht auf Strukturdaten der Zielstruktur beruht. Phase 3: Analyse der bekannten Konformere der Zielstruktur auf konstante Angriffspunkte für ein spezielles Liganden-Design. Phase 4: Einbinden der bekannten Strukturinformationen der Zielstruktur zur weiteren Verfeinerung der Auswahlverfahren neuer Kandidaten für die weitere experimentelle Bestimmung des Bindeverhaltens. Im Rahmen dieser Arbeit konnten mittels der Anwendung von künstlichen neuronalen Netzen in einem ligandenbasierten Ansatz durch virtuelles Screening der Chemikalien-Datenbanken verschiedener Lieferanten fünf neue potentielle TAR-RNA-Liganden identifiziert werden (drei davon mit einem Methylenaminoguanidyl-Substrukturmotiv), sowie als „Spin-Off“ durch die Anwendung der ursprünglich nur für den Tat-TAR-FRET-Assay vorgesehenen Testsubstanzen in einem Kooperationsprojekt (mittels CFivTT-Assay) zwei neue potentiell antibakterielle Verbindungen identifiziert werden. Die Beschäftigung mit der offensichtlichen Flexibilität der TAR-RNA und damit einer nicht eindeutig zu definierenden Referenz-Zielstruktur für das Liganden-Docking führte zur Erstellung eines Software-Pakets, mit dem flexible Zielstrukturen – basierend auf den Konformer-Datensätzen von MD-Simulationen – auf konstante Angriffspunkte untersucht werden können. Hierbei wurde ausgehend von der Integration eines Taschenvorhersage-Programms (PocketPicker) eine Reihe von Filtern implementiert, die auf den hierzu in einer MySQL-Datenbank abgelegten Strukturinformationen eine Einschränkung des möglichen Taschenraums für das zukünftige Liganden-Design automatisiert vornehmen können. Des Weiteren ermöglicht dieser Ansatz einen einfachen Zugriff auf die einzelnen Konformere und die Möglichkeit Annotationen zu den Konformeren und den daraus abgeleiteten Tascheninformationen hinzuzufügen, so dass diese Informationen für die Erstellung von Liganden-Docking-Versuchen verwendet werden können. Ferner wurden im Rahmen dieser Arbeit ein neuer Deskriptor für die Beschreibung von Taschenoberflächen eingeführt: der auf der „Skalierungs-Index-Methode“ basierende molekulare SIMPrint. Die Beschäftigung mit der Verteilung der potentiellen Bindetaschen auf der Oberfläche der Konformerensemble führte ferner zur Definition der Taschenoberflächenbildungswahrscheinlichkeit (Pocket Surface Generation Probability – PSGP) für einzelne Atome einer Zielstruktur, die tendenziell für die Einschätzung der Ausbildung einer potentiell langlebigen Interaktion eines Liganden mit der Zielstruktur herangezogen werden kann, um beispielsweise Docking-Posen zu bewerten.
Germanistik im Netz - das Fachportal zur deutschen Sprach- und Literaturwissenschaft - ist seit Juni 2006 online. Germanistik im Netz richtet sich vorrangig an Germanistinnen und Germanisten in Forschung und Lehre und ermöglicht eine übergreifende Suche nach ausgewählten digitalen und konventionellen Medien sowie nach weiteren fachrelevanten Informationen. Beteiligt waren bei Projektstart Ende 2004 vier Partner: Die Universitätsbibliothek Frankfurt/Main (SSG-Bibliothek für Germanistik), das Deutsche Literaturarchiv Marbach, der Deutsche Germanistenverband sowie die Initiativgruppe Fachportal Germanistik, im Juni 2005 stieß die Mailingliste H-Germanistik hinzu, in Förderphase II verstärken u.a. die Anna Amalia Bibliothek Weimar und die Herzog August Bibliothek Wolfenbüttel das Projektkonsortium.
Anhand eines Datensatzes von 1.708 Vegetationsaufnahmen aus 154 bayerischen Naturwaldreservaten wurde die realisierte ökologische Nische von 25 Baumarten hinsichtlich Lichtbedarf bzw. Schattentoleranz untersucht. Für jede Baumart wurde die Stetigkeit des Vorkommens in Baumschicht und Verjüngung berechnet. Für jede Aufnahme wurde die dem Bestandesunterwuchs zur Verfügung stehende Lichtmenge durch Berechnung des mittleren ungewichteten Licht-Zeigerwertes (mL) aller vorkommenden Arten (ohne Baumschicht) auf einer Relativskala geschätzt. Für jede 0,5-Einheiten-Stufe von mL wurde die Präferenz jeder Baumart, getrennt nach Baum- (> 5m) und Verjüngungsschicht (< 5m), als Differenz zwischen relativer Häufigkeit der jeweiligen Art und der relativen Häufigkeit aller Aufnahmen in der mL-Stufe im gesamten Datensatz berechnet. Die Präferenzprofile von Baumschicht und Verjüngungsschicht bildeten die Grundlage einer numerischen Klassifikation von 6 lichtökologischen Nischen typen. Diese Typen werden hinsichtlich ihrer Bindung an bestimmte Entwicklungsphasen und Strukturen der natürlichen Walddynamik diskutiert, mit geläufigen Einteilungen der Baumarten verglichen und im Hinblick auf eine Prognose des Verhaltens unter sich ändernden Umweltbedingungen ausgewertet. – Während sich Edellaubbäume des Tilio-Acerion in den Reservaten sehr ähnlich wie Fagus und Abies verhalten, bilden die Baumarten der Eichenmischwälder eine lichtökologische Gruppe mit rückläufiger Verjüngungstendenz. Unter den übrigen Halbschattbaumarten hebt sich eine Gruppe heraus, welche sich in geschlossenen Beständen vorausverjüngt und nach Störung in die Baumschicht vordringt. Pionierbaumarten bleiben in Naturwaldreservaten weitestgehend auf Sonderstandorte, wo ihre Verjüngung viel Licht vorfindet, beschränkt.
Durch das Semantische Web soll es Maschinen ermöglicht werden Metadaten zu verstehen. Hierin steckt ein enormes Potenzial, wodurch sich der Umgang mit dem heutigen Internet grundlegend ändern kann. Das Semantische Web steht jedoch noch am Anfang. Es gilt noch einige offene und strittige Punkte zu klären. Das Fundament des Semantischen Webs wird durch das Resource Description Framework (RDF) gebildet, worauf sich diese Arbeit konzentriert. Hauptziel meiner Arbeit war die Verbesserung der Funktionalität und der Nutzungsfreundlichkeit für RDF-Speicher- und Anfragesysteme. Dabei stand die allgemeine Nutzung für ein Informationsportal oder eine Internetsuchmaschine im Vordergrund. Meine Überlegungen hierzu wurden in dem Speichersystem RDF-Source related Storage System (RDF-S3) und der darauf aufsetzenden Anfragesprache easy RDF Query Language (eRQL) umgesetzt. Insbesondere wurden die folgende Kernpunkte berücksichtigt: • Allgemeine Nutzbarkeit der Anfragesprache, sodass auch unerfahrene Nutzer einfach und schnell Anfragen erstellen können. Um auch von unerfahrenen Nutzern bedient werden zu können, konnte keine komplexe Syntax verwendet werden, wie dies bei den meisten existierenden Anfragesprachen der Fall ist. Es wurde sich daher an Anfragesprachen existierender Suchmaschinen angelehnt. Entsprechend bilden sogenannte Ein-Wort-Anfragen, die den Suchbegriffen entsprechen, eine wichtige Rolle. Um gezieltere Anfragen stellen zu können, sind jedoch die Schemainformationen der gespeicherten Daten sehr wichtig. Hier bietet bereits die RDF Query Language (RQL) viele hilfreiche Kurzschreibweisen, an die sich eRQL anlehnt. • Bereitstellung glaubwürdiger Metadaten, sodass den Anfrageergebnissen vertraut werden kann. Das Semantische Web ist ein verteiltes System, wobei keine Kontrolle auf die Datenquellen ausgeübt werden kann. Den Daten kann daher nicht ohne weiteres vertraut werden. Anders ist dies mit Metadaten, die von eigenen Systemen erzeugt wurden. Man weiß wie sie erzeugt wurden und kann ihnen entsprechend vertrauen. Wichtig ist eine klare Trennung zwischen den Daten und den Metadaten über diese, da sonst eine absichtliche Nachbildung der Metadaten von außen (Suchmaschinen-Spamming) das System unterlaufen kann. Für die Glaubwürdigkeit von Anfrageergebnissen sind vor allem die Herkunft der Daten und deren Aktualität entscheidend. In den umgesetzten Entwicklungen zu dieser Arbeit wurde sich daher auf diese Informationen konzentriert. In RDF-S3 wird die Verknüpfung der RDF-Aussage mit ihren Herkunftsdaten im Speichermodell abgebildet. Dies ermöglicht eine gezielte Ausnutzung dieser Daten in eRQL-Anfragen. Durch den sogenannten Dokumenten-Modus bietet eRQL die Möglichkeit Anfragen auf eine Gruppe von Quellen zu begrenzen oder bestimmte unglaubwürdige Quellen auszuschließen. Auch können die Herkunftsdaten das Anfrageergebniss erweitern und dadurch das Verständnis und die Glaubwürdigkeit für das Ergebnis erhöhen. • Anfrageergebnisse können um ihre Umgebung erweitert werden, sodass sie besser verstanden werden können. Für eRQL-Anfragen besteht die Möglichkeit die Umgebnung zu den Treffern (RDF-Aussagen) mit zu berücksichtigen und im Ergebnis mit anzuzeigen. Dies erhöht das Verständnis für die Ergebnisse. Weiterhin ergeben sich hierdurch neue Möglichkeiten wie das Auffinden von Pfaden zwischen Teilergebnissen einer Anfrage. • Unterstützung und Kombination von Daten- und Schemaanfragen. Mit eRQL werden beide Anfragetypen unterstützt und können sinnvoll miteinander kombiniert werden. Die Einbeziehung der Umgebung ermöglicht für die Kombination von Daten- und Schemaanfragen neue Möglichkeiten. Dabei werden sowohl Daten- als auch Schemaanfragen (oder deren Kombination) durch das Speichermodell von RDF-S3 optimal unterstützt. Weitere nennenswerte Eigenschaften von RDF-S3 und eRQL sind: • Durch die Möglichkeit gezielt einzelne Quellen wieder zu entfernen oder zu aktualisieren, bietet RDF-S3 eine gute Wartbarkeit der gespeicherten Daten. • RDF-S3 und eRQL sind zu 100 % in Java entwickelt, wodurch ihr Einsatz unabhängig vom Betriebssystem möglich ist. • Der Datenbankzugriff erfolgt über JDBC, wobei keine besonderen Eigenschaften für die verwendete RDBMS nötig sind . Dies sorgt für eine hohe Portabilität. RDF-S3 und eRQL wurden als Beispielimplementierungen entwickelt. Für einen produktiven Einsatz sollten die Systeme an die gegebene Hardware-Umgebung und Anwendungsfall angepasst werden. In Kapitel 6 werden Erweiterungen und Änderungsmöglichkeiten genannt, die je nach Situation geprüft werden sollten. Ein noch vorhandenes Problem für einen produktiven Einsatz auf großen Datenmengen ist die aufwendige Berechnung der Umgebungen für Anfrageergebnisse. Die Berechnung von Umgebungen im Vorhinein könnte hier eine Lösung sein, die jedoch durch die Möglichkeit der Einschränkung auf glaubwürdige Quellen erschwert wird.
The purpose of this article is to report on the work carried out during the research project "O trabalho de tradutor como fonte para a constituição de base de dados" (The translator´s work as a source for the constitution of a database). Through the restoration, organization and digitalization of the personal glossary and part of the books containing the translations made by the deceased public translator Gustavo Lohnefink, this research project intends to construct a digital database of German – Portuguese technical terms (for the language pair), which could then be used by other translators. In order to achieve this purpose, a specific methodology had to be developed, which could be used as a starting-point for the treatment and recovery of other similarly organized data-collections.
Der Beitrag widmet sich den okkasionellen Modifikationen von Phraseologismen in deutschen Online-Medien (spiegel.de, sueddeutsche.de) und im ZEIT-Korpus des Digitalen Wörterbuches der deutschen Sprache (DWDS). Ausgehend von verschiedenen Typen der Modifikationen wird auf die Intentionalität und Kontextgebundenheit der okkasionellen Modifikationen von Phraseologismen in medialen Texten eingegangen.
Mapeamento de estudos da linguística contrastiva Português/Alemão : dados bibliográficos no Brasil
(2021)
Este trabalho tem como propósito relatar o desenvolvimento, a metodologia e os resultados de um Projeto de Iniciação Científica que propõe a construção de uma base de dados da bibliografia da linguística contrastiva Português/Alemão. De natureza documentalbibliográfica, a coletânea bibliográfica foi realizada em bases de dados brasileiras de publicações em português, e as referências compiladas no software Zotero. As buscas foram realizadas entre agosto e dezembro de 2019 e se utilizou as palavras-chave (Língua Alemã; Língua Portuguesa; Alemão; Português; Linguística; Linguística Contrastiva), assim como as grandes áreas da Linguística (Morfologia; Fonética; Fonologia; Semântica; Pragmática e Sintaxe). Foram identificadas ao todo 48 pesquisas, publicadas entre os anos de 1972 e 2019, classificadas entre Literatura Branca e Literatura Cinzenta. Os dados apontam uma prevalência de artigos publicados no periódico Pandaemonium Germanicum, da Universidade de São Paulo (USP), especialmente na década de 1990, assim como um grande número de pesquisas na área de semântica.
Die in den beiden letzten Jahren abgeschlossenen Nationallizenzen haben Tatsachen geschaffen, die den Start zu einer Umstrukturierung der überregionalen Informationsversorgung erleichtern: - Versorgungslücken wurden geschlossen. - Die Durchdringung der Hochschulen und Forschungseinrichtungen mit elektronischer Fachinformation wurde vergleichbaren Ländern angeglichen. - Wissenschaftler, Studierende und wissenschaftlich interessierte Privatpersonen haben deutschlandweit kostenlosen Zugang zu einem fachlich breit gestreuten Angebot an retrospektiven Datenbanken, digitalen Textsammlungen und elektronischen Zeitschriften.
Ein universeller zentraler Grenzwertsatz für den Abstand zweier Kugeln in zufälligen Splitbäumen
(2008)
In der vorliegenden Arbeit wird ein Modell des zufälligen Splitbaumes untersucht. Dies ist ein verallgemeinertes Modell, das bei passender Wahl der zugehörigenParameter viele konkrete Suchbäume umfasst. Das Modell ist in der Arbeit von L. Devroye beschrieben: Nach einem zufallsbasierten Algorithmus werden den Knoten des Baumes Daten in Form von Kugeln hinzugefügt. Tiefe und Höhe sind dabei grundlegende Größen, die die Komplexität von Suchoperationen beschreiben, wenn das Suchbaummodell als Datenstruktur verwendet wird. Das Augenmerk der Arbeit richtet sich auf eine weitere entscheidende Größe: Den Abstand zweier rein zufällig gewählter Kugeln im Baum. Aufbauend auf Devroyes Erkenntnissen zum asymptotischen Verhalten der Tiefe der zuletzt eingefügten Kugel im Splitbaum, wird ein neues Resultat erzielt: Ein universeller Zentraler Grenzwertsatz für den Abstand der Kugeln. Als Anwendungsbeispiel werden zwei vom allgemeinen Modell abgedeckte Suchbäume betrachtet und der jeweilige Grenzwertsatz für die Abstände aus dem universellen Satz abgeleitet.