Refine
Year of publication
Document Type
- Conference Proceeding (71) (remove)
Has Fulltext
- yes (71)
Keywords
- Computerlinguistik (19)
- Japanisch (10)
- Maschinelle Übersetzung (8)
- Deutsch (5)
- Übersetzung (5)
- Grammatik (4)
- Türkisch (4)
- Fremdsprachenlernen (3)
- Literatur (3)
- Literaturwissenschaft (3)
Institute
- Extern (71) (remove)
Unsere Vorlesung [...] möchte eine Reihe exemplarischer und zeitlich und geographisch möglichst breit gestreuter Beispiele präsentieren. Vor allem aber werden wir die unterschiedlichen Grundlagen, Voraussetzungen und Praktiken der Zensur im Lauf der Zeit und in verschiedenen Ländern vergleichend nebeneinander stellen. Vorweg sind einige Bemerkungen zu den verschiedenen theoretischen Begründungen der Zensur sowie zu Definition und Abgrenzung des Gegenstands nötig, denn der Begriff Zensur wird für eine Reihe verwandter, aber doch unterschiedlicher Phänomene verwendet.
Der etwas pompöse Begriff "Wiener Moderne" könnte ohne weiteres durch den etwas bescheideneren Begriff "Junges Wien" ersetzt werden. Um diese relativ homogene, Anfang der neunziger Jahre formierte Gruppe, ihre Werke und im Besonderen um ihr Verhältnis zu französischen Vorbildern wird es hier in erster Linie gehen. Dabei wird die Aufmerksamkeit anfänglich auf Hermann Bahr als zentraler Vermittlerfigur französischer Literatur gerichtet sein, dann werden einige Werke von Hofmannsthal, Schnitzler, Dörmann, Andrian, Altenberg und Beer-Hofmann in Beziehung zur französischen Literatur gesetzt.
In unserem Lesealltag stoßen wir auf Schritt und Tritt auf Übersetzungen. Ca. 15 % aller auf dem deutschen Buchmarkt produzierten Titel sind Übersetzungen, wobei - wenig überraschend - zwei Drittel aus dem Englischen stammen. Wir haben uns derartig daran gewöhnt, Übersetzungen zu benützen, dass wir sie kaum noch als besondere, höchst problematische Textsorte wahrnehmen. Auch Literaturwissenschaftler sind nicht dagegen gefeit, beim Lesen zu "vergessen", dass sie eine Übersetzung vor sich haben. Nicht oft genug kann man daher darauf hinweisen, dass Übersetzungen oft erheblich von ihren Vorlagen abweichen und dass bei der Entstehung von Übersetzungen nicht nur Kalkül, sondern auch der Zufall eine große Rolle spielt.
While the sortal constraints associated with Japanese numeral classifiers are wellstudied, less attention has been paid to the details of their syntax. We describe an analysis implemented within a broadcoverage HPSG that handles an intricate set of numeral classifier construction types and compositionally relates each to an appropriate semantic representation, using Minimal Recursion Semantics.
We present an effort for the development of multilingual named entity grammars in a unification-based finite-state formalism (SProUT). Following an extended version of the MUC7 standard, we have developed Named Entity Recognition grammars for German, Chinese, Japanese, French, Spanish, English, and Czech. The grammars recognize person names, organizations, geographical locations, currency, time and date expressions. Subgrammars and gazetteers are shared as much as possible for the grammars of the different languages. Multilingual corpora from the business domain are used for grammar development and evaluation. The annotation format (named entity and other linguistic information) is described. We present an evaluation tool which provides detailed statistics and diagnostics, allows for partial matching of annotations, and supports user-defined mappings between different annotation and grammar output formats.
The Deep Linguistic Processing with HPSG Initiative (DELH-IN) provides the infrastructure needed to produce open-source semantic transfer-based machine translation systems. We have made available a prototype Japanese-English machine translation system built from existing resources include parsers, generators, bidirectional grammars and a transfer engine.
In this paper we describe SOBA, a sub-component of the SmartWeb multi-modal dialog system. SOBA is a component for ontologybased information extraction from soccer web pages for automatic population of a knowledge base that can be used for domainspecific question answering. SOBA realizes a tight connection between the ontology, knowledge base and the information extraction component. The originality of SOBA is in the fact that it extracts information from heterogeneous sources such as tabular structures, text and image captions in a semantically integrated way. In particular, it stores extracted information in a knowledge base, and in turn uses the knowledge base to interpret and link newly extracted information with respect to already existing entities.
This demo abstract describes the SmartWeb Ontology-based Information Extraction System (SOBIE). A key feature of SOBIE is that all information is extracted and stored with respect to the SmartWeb ontology. In this way, other components of the systems, which use the same ontology, can access this information in a straightforward way. We will show how information extracted by SOBIE is visualized within its original context, thus enhancing the browsing experience of the end user.
The research performed in the DeepThought project aims at demonstrating the potential of deep linguistic processing if combined with shallow methods for robustness. Classical information retrieval is extended by high precision concept indexing and relation detection. On the basis of this approach, the feasibility of three ambitious applications will be demonstrated, namely: precise information extraction for business intelligence; email response management for customer relationship management; creativity support for document production and collective brainstorming. Common to these applications, and the basis for their development is the XML-based, RMRS-enabled core architecture framework that will be described in detail in this paper. The framework is not limited to the applications envisaged in the DeepThought project, but can also be employed e.g. to generate and make use of XML standoff annotation of documents and linguistic corpora, and in general for a wide range of NLP-based applications and research purposes.
We present an architecture for the integration of shallow and deep NLP components which is aimed at flexible combination of different language technologies for a range of practical current and future applications. In particular, we describe the integration of a high-level HPSG parsing system with different high-performance shallow components, ranging from named entity recognition to chunk parsing and shallow clause recognition. The NLP components enrich a representation of natural language text with layers of new XML meta-information using a single shared data structure, called the text chart. We describe details of the integration methods, and show how information extraction and language checking applications for realworld German text benefit from a deep grammatical analysis.