Linguistik
Refine
Year of publication
Document Type
- Conference Proceeding (166) (remove)
Has Fulltext
- yes (166)
Is part of the Bibliography
- no (166)
Keywords
- Computerlinguistik (20)
- Informationsstruktur (19)
- Deutsch (16)
- Phonetik (13)
- Japanisch (10)
- Maschinelle Übersetzung (9)
- Englisch (7)
- Grammatik (7)
- Nungisch (6)
- Tibetobirmanische Sprachen (6)
Institute
Der Elfenbeinturm hat Fenster. Browserfenster : Wissenschaftskommunikation in sozialen Medien
(2021)
A contrast to a trace
(2001)
For movement, such as quantifier raising, the three different structures illustrated in (1) are discussed in the recent literature.
(1) A girl danced with every boy
a. [every boy]x a girl danced with x (copy + replace)
b. [every boy]x a girl danced with [every boy] (copy)
c. [every boy]x a girl danced with [thex boy] (copy + modify)
In this paper, I'll call the proposal illustrated by (1a) the copy+replace theory since the movement is analyzed as first copying the moving phrase followed by replacing the moving phrase with a trace in the base position of movement. Chomsky (1993) and Fox (1999) argue against the copy+replace theory (1a) on the basis of Condition C data that show that moved material can behave as if it occupied the base position of movement. This behavior would, for example, be expected on the copy theory of movement illustrated by (1b), which also seems conceptually simpler than the copy+replace theory since it involves only copying without replacement. This conceptual advantage, however, is probably only apparent since a theory of the interpretation of structures like (1b) would probably be more complicated than for (1a). Standard assumptions about interpretation, at least, don't predict the right meaning when applied to (1b). For this reason, Chomsky and Fox propose what I'll call the copy+modify-theory illustrated in (1c). This proposes that copying is followed by a trace modification operation that replaces the determiner of the moved DP with something else. I assume that this is an indexed definite determiner, the interpretation of which is to be clarified below.
This paper discusses the nature of habits in the use of languages. It is well-known that the habits of one's first language can influence the acquisition of a second language. This paper discusses the less well-known phenomenon of how an acquired second language can influence one's first language, and explains this influence by reference to the nature of communicative behavior.
In terms of the direction of development, I referred to Johanna Nichols' work on head-marking vs. dependant marking. Nichols did not make reference to any languages in Tibeto-Burman, but all of the Tibeto-Burman languages that do not have verb agreement systems are solidly dependent-marking (i.e., they have marking on the nouns for case or pragmatic function); those languages with verb agreement systems, a type of head marking, also have many dependent-marking features (of the same types as the non-pronominalized languages). The question, then, is which is older, the dependent-marking type or the headmarking (actually mixed) type?
The aim of this paper is to give a unified account of the way that German demonstrative pronouns (henceforth: D-pronouns) like der, die and das behave (a) in sentences where they receive a coreferential interpretation, and (b) in sentences where they receive a covarying interpretation because they are in some way dependent on a quantificational expression – either via direct binding or indirectly, because the value they receive varies with the value that is assigned to the variable bound by an indefinite determiner.
Wissenschaft ist das Suchen nach (neuen) Erkenntnissen. Die Erkenntnisse bzw. deren Resultate werden vom denkenden und erkennenden Menschen in Begriffe, in kognitive Einheiten, gefasst; damit diese Begriffe kommunizierbar werden, müssen sie mit Wörtern, sprachlichen Einheiten, benannt werden. Auf diese Weise kommt es (auch) zu fachlichen Terminologien.
Ein Blick in die Geschichte der deutschen Sprache kann diese kognitiven und sprachlichen Prozesse illustrieren: Die deutsche Mystik des Mittelalters stellt die Sprecher/innen vor die Notwendigkeit, neue Erfahrungen, die der "Unio mystica", zu versprachlichen. Da eine deutsche Wissenschaftssprache sich erst im 18. Jahrhundert zu etablieren beginnt, ist die 'Fachsprache' der deutschen Mystik eine wichtige Vorstufe, die die Möglichkeiten, zu neuen Termini zu kommen, systematisiert. Wenn heute die deutschen Fachsprachen, wie es oft gefordert wird, vom Englischen abgelöst werden, gehen wichtige Erkenntnisquellen verloren.
Der Aufsatz präsentiert einen der historiographischen Texte aus den böhmischen Ländern, der am Ende des 16. Jahrhunderts vom Humanisten Matthaeus Meisner (1543–nach 1600) verfasst wurde. Das Manuskript über die Geschichte der Stadt Brüx (Most) in Nordwestböhmen ist zurzeit im Archiv der Prager Burg als Bestandteil der Bibliothek des Metropolitankapitels von St. Veit deponiert. Der Aufsatz behandelt die textologische Charakteristik des Manuskripts und die Aspekte, die für die Wahl der im Manuskript vorkommenden, also der lateinischen, deutschen und tschechischen, Sprachen relevant waren.
Im späten Mittelalter setzt sich die deutsche Sprache immer stärker als Sprache der Medizin durch. Auch wenn deutschsprachige heilkundliche Werke jener Zeit vorrangig für Praktiker ohne akademische Ausbildung bestimmt waren und als Anweisungstexte gebraucht wurden, kann man darin schon Register und Inhaltsverzeichnisse finden, also solche Orientierungsmittel, die in der modernen Zeit zum festen Bestandteil von Fachtexten wurden. Diese Mittel der Textoptimierung unterscheiden sich zwar von den heutigen noch stark, nichtsdestoweniger zeugen sie davon, dass die Autoren deutscher medizinischer Werke ihre Adressaten vor Augen hatten und bemüht waren, ihnen die Rezeption des Fachwissens zu erleichtern.
Partizipien und Adjektive gehören zu Sprachmitteln, die bei der Personendarstellung zur Beschreibung des Äußeren, der Interessen und der geistigen Welt in spezifischen Textsorten (hier: in Kontaktanzeigen lesbischer Frauen im Alter über 50 Jahre) verwendet werden. Im Vergleich zum Adjektiv kann das Partizip die zeitliche Dimension einer Eigenschaft oder der Lebenserfahrung ausdrücken; auf diese Weise können Sprechende den Wert der jeweiligen Eigenschaft oder Lebenserfahrung hervorheben. Das Partizip wird in bestimmten Kontexten bevorzugt, denn es kann die persuasive und appellative Funktion des Textes intensivieren. Die Autorin dieses Beitrags analysiert Motive und Strategien des Partizip-Usus' aus pragmalinguistischer Perspektive in 100 Kontaktanzeigen in der deutschen Frauenzeitschrift 'EMMA'.
Der Beitrag setzt sich zum Ziel, die Traditionen, aktuelle Tendenzen und Aufgaben der Erforschung der historischen deutschen Stadtkanzleisprachen auf dem Territorium Böhmens, Mährens und Schlesiens vorzustellen. Der erste Teil ist dem Phänomen des tschechisch-deutschen Bilingualismus in den böhmischen Ländern gewidmet, im zweiten Teil werden Geschichte und aktuelle Aufgaben der Untersuchung der historischen Kanzleisprachen in unserem Land präsentiert und der dritte Teil zeigt Möglichkeiten einer historiolinguistischen Untersuchung an Beispielen frühneuhochdeutscher Texte der Olmützer Stadtkanzlei.
Der Beitrag beschäftigt sich mit den paradigmatischen Bedeutungsrelationen im Rahmen der Phraseologie, dazu gehören: phraseologische Reihen, Synonymie, Antonymie, Konversion I, Konversion II, Polysemie und Homonymie. Einzelne Relationen werden mit Beispielen der somatischen Phraseologie illustriert. Am Anfang werden die Platzierung der paradigmatischen Relationen im Rahmen der Lexikologie und eine kurze terminologische Erklärung angeführt. Weiter werden unterschiedliche Felder mit der phraseologischen Komponente HAND vorgestellt: a) Geben, Nehmen/Klauen und Behalten; b) Macht und Gewalt; c) Mord und Selbstmord; d) Freiheit; e) Machen, Vollenden, Schaffen. Zum Schluss wird die Bedeutung der paradigmatischen Beziehungen erläutert.
Der Beitrag behandelt zunächst die Frage, welche Vorteile elektronische Wörterbücher gegenüber traditionell gedruckten Wörterbüchern besitzen. Danach werden drei Online-Programme zur automatischen Übersetzung (Babelfish, Google Übersetzer, Bing Translator) vorgestellt. Beispieltexte werden mit diesen Programmen übersetzt, danach wird die jeweilige Qualität der Übersetzungen beurteilt. Schließlich diskutiert der Beitrag noch die Folgen, die durch die Möglichkeiten automatischen Übersetzens für die Auslandsgermanistik zu erwarten sind. Dabei zeigt sich, dass Programme für das automatische Übersetzen künftig durchaus ernstzunehmende Auswirkungen auf die philologischen Wissenschaften haben können.
Dieser Beitrag setzt sich zum Ziel, die Kurzwörter zu klassifizieren und statistisch auszuwerten. Die Belege, die beim Lesen der deutschen Alltagspresse gewonnen wurden, verglich die Autorin mit anderen Belegen aus der deutschen Fachpresse und der tschechischen Presse. Statistisch gesehen, bilden die partiellen Kurzwörter, die auch als gebundene Kurzwörter bezeichnet werden, die meist benutzte Kategorie der Kurzwörter in der deutschen Presse. Das deutsche und das tschechische Sprachsystem unterscheiden sich voneinander in der Flexion, was die Variabilität in der Position der gekürzten Form im deutschen Sprachsystem ermöglicht.
Im Beitrag wird an einem Leitartikel des 'Mährischen Tagblatts' vom Juli 1880 gezeigt, wie Phraseme die meinungsbildende Funktion dieser Textsorte unterstützen können. Einer kurzen Charakteristik der Zeitung, der national-politischen Situation in der Donaumonarchie im Jahre 1880, auf die sich der Leitartikel bezieht, und der Textsorte Leitartikel folgt die Übersicht der im Text verwendeten Phraseme mit einem Kommentar zu ihren Typen und zur Art ihrer Verwendung (normal oder modifiziert). Danach wird der Inhalt des untersuchten Leitartikels wiedergegeben und gleichzeitig wird die Argumentationsstruktur des Textes beschrieben. Die für die Argumentation wichtigen Sprachhandlungsfunktionen der Phraseme, die dabei deutlich werden, werden abschließend zusammengefasst.
Konventionalisierte Routineformeln sind standardisierte Ausdrücke, die in verschiedenen Situationen der täglichen Kommunikation verwendet werden. Für das Fremdsprachenlernen ist es sehr wichtig, solche Routineformeln und Ausdrücke zu lernen, die in einer bestimmten Situation adäquat sind und erwartet werden. Die Routineformeln werden im Hinblick auf ihre Semantik, Syntax und ihre kommunikative Funktion beschrieben. Abschließend werden konventionalisierte Routineformeln im Tschechischen und im Deutschen im Hinblick auf ihre grammatische Struktur und ihre lexikalischen Komponenten verglichen.
Das Prager Deutsch wurde schon oft erwähnt, aber wenig beschrieben. In diesem Aufsatz wird die letzte Form dieses Deutschen dargestellt, wie sie in den 30er und 40er Jahren des 20. Jahrhunderts gesprochen wurde, als deutsche Standardsprache der Länder der böhmischen Krone. Die Unterschiede zum neutralen Standarddeutschen sind sehr gering. Es gibt wenige tschechische Einflüsse, kaum Übereinstimmungen mit dem süddeutschen und österreichischen Substandard, aber Parallelen zum nördlichen Standarddeutschen. Heute ist das Prager Deutsch fast ausgestorben, da es nach 1945 nicht mehr weitergegeben wurde.
Alle zwei Jahre halten die Mitglieder des Germanistenverbandes der Tschechischen Republik eine Konferenz ab. Auf der Tagung, die vom 17. bis 18. Mai 2012 an der Philosophischen Fakultät der Palacký-Universität in Olomouc – im Kunstzentrum im Alten Konvikt – stattfand, wurden Vorträge unter dem Motto "Deutsch als Sprache der (Geistes)Wissenschaften" präsentiert, die zeigen, dass die deutsche Sprache als Sprache der Geisteswissenschaften in Mitteleuropa immer noch sehr wichtig ist. Der vorliegende Tagungsband, der zwölf Vorträge beinhaltet, die in der linguistischen Sektion der Tagung des Germanistenverbandes präsentiert wurden, möchte diese Schlussfolgerung unterstützen.
Seit der zweiten Hälfte des letzten Jahrhunderts zieht die Übersetzung im Fremdsprachenunterricht (FSU) das Interesse der Fremdsprachendidaktiker auf sich. In den anhaltenden Diskussionen über den Stellenwert der Übersetzung im FSU bestehen aber immer noch verschiedene Meinungen. Die Meinungsverschiedenheiten beruhen vor allem auf diversen miteinander konkurrierenden Lerntheorien und damit auch auf unterschiedlichen methodischen Prinzipien. Im Zusammenhang mit den herrschenden didaktischen Richtungen und mit den unterschiedlichen Lernzielen, die im Fremdsprachenunterricht verfolgt werden können, wird auch die Übersetzung unter mehreren Gesichtspunkten betrachtet und bewertet. Hinsichtlich der Funktion der Übersetzung ist es inzwischen üblich geworden, zwischen zwei Verwendungsweisen zu unterscheiden: Einerseits wird die Übersetzung als ein methodisches Mittel zur Festigung, Erweiterung und Prüfung sprachlicher Fertigkeiten angewendet, andererseits ist sie als eine eigene Fertigkeit selbst ein Übungs- und Unterrichtsziel.
Çeviribilimde Yöntem Sorunu
(2004)
Dieser Beitrag bearbeitet und behandelt die Funktion der Methodologie beim Erwerb wissenschaftlicher Erkenntnisse in Bezug auf das Verstehen des Übersetzungsvorgangs. Wie bekannt ist das Problem der Methodologie eines der meist diskutierten Themen in der Übersetzungswissenschaft. Obwohl inzwischen eine Reihe von wissenschaftlichen Ansätzen zu diesem Thema existiert, hat die Übersetzungswissenschaft noch keinen theoretischen Rahmen entwickelt, in dem der betreffende Forschungsgegenstand definiert wird. Aus diesem Grund unterscheiden sich die Arten der Angehensweise von übersetzungswissenschaftlichen Problemen. Außerdem scheinen die Definitionsbemühungen hinsichtlich des Forschungsgegenstandes der Übersetzungswissenschaft und der Methodenprobleme der übersetzungswissenschaftlichen Ansätze nicht unbedingt zufrieden stellende Antworten auf die Fragen in diesem Bereich zu liefern. Das Definitionsproblem der genauen theoretischen und methodologischen Orientierung der Übersetzungswissenschaft in der allgemeinen Wissenschaftswelt hängt neben ihrem strittigen Standort als einer neuen Disziplin auch von zwei weiteren Grundfaktoren ab: 1. Probleme, mit denen man bei der Festlegung einer vereinenden Übersetzungstheorie konfrontiert ist, da die Übersetzung einen vielseitigen und komplexen Objektbereich umfaßt; 2. ungenügende Forschungen in Bezug auf methodologische Ansätze in der Übersetzungswissenschaft. Wie bekannt profitiert man bei der Entwicklung einer Übersetzungstheorie auch von der Methodologie anderer Disziplinen. Diese Methoden sind wie vielseitige Mittel, die bei der Lösung von Problemen in Bereichen wie übersetzungswissenschaftliche Forschungen, Didaktik des Übersetzens und Übersetzungsprozess angewandt werden können. Diese Methoden werden außerdem einen Beitrag dazu leisten, definierende Übersetzungsmethoden hinsichtlich über-setzungswissenschaftlicher Ansätze für das Verstehen des Übersetzungsvor-ganges zu entwickeln.
Seit der zweiten Hälfte des zwanzigsten Jahrhunderts sind im theoretischen Bereich der Übersetzungswissenschaft wichtige Veränderungen zu beobachten. Von Cicero bis zur zweiten Hälfte des letzten Jahrhunderts verlagerte sich die ausgangssprachenorientierte Übersetzungsauffassung auf die zielsprachenorientierten. Somit haben sich immer mehr die zielsprachenorientierte Forschungen im Bereich der Übersetzungstheorie als ein übersetzungsrelevantes Phänomen durchgesetzt. Insbesondere haben die nach den 70’er Jahren entworfenen Übersetzungstheorien, in denen der Übersetzer immer mehr in das Zentrum des Forschungsinteresse rückt und entsprechende übersetzungsprozessualorientierte Ansätze sich aufdrängen, an Wichtigkeit eingebüßt. Nach diesen Ansätzen rücken normative Belange in Bezug auf erfolgreiche Übersetzung in Form von Prinzipien und Regeln in den Vordergrund. Heutzutage ist das Interesse an theoretische Forschungen besonders auf deskriptive Beschreibungen des Übersetzungsphänomens gerichtet. Damit die Theorie mit der Praxis übereinstimmt, sollte man vor allem die allgemeinen Grundsätze der Übersetzungstheorien, die Grundlage zur Praxis bilden, explizit verarbeiten. Wenn man auch nicht erwartet, dass die Übersetzungstheorien alle in der Praxis der Übersetzung entstandenen Probleme bewältigen können, ist aber trotzdem davon auszugehen, dass der Übersetzer, welcher über die allgemeine theoretische Grundlage verfügt, in seiner Übersetzungstätigkeit mehr Erfolg haben wird, weshalb die Praxis und Theorie voneinander recht gering abweichen werden. Die Auseinandersetzung mit diesem Tatbestand, also mit der Theorie, kann die Lösung der probablen Fehler erleichtern. Außerdem besteht somit die Möglichkeit, die Effizienz der Theorie auf die Anwendung herauszufinden und demzufolge kann die durch praktische Ausführung ermittelten Ergebnisse eine ganzheitliche Präzisierung der theoretischen Beschreibungen nach sich ziehen.
An den Studiengängen der Abteilung für Germanistik und Deutsch als Fremdsprache unserer Universitäten nimmt das Fach „Deutsche Grammatik“ einen wichtigen Platz ein. Zu beobachten ist dabei, dass die Studierenden der grammatischen Strukturen des Deutschen sowohl in morphosyntaktischer und funktioneller Hinsicht nicht auf erforderlichem Niveau beherrschen. Dabei soll besondere Kraft darauf verwendet werden, die morphosyntaktischern Kenntnisse in aktive Sprachfähigkeit umzusetzen. Ziel dieser Arbeit ist, Gedanken und Vorschläge zu entwickeln, wie der Unterricht hinsichtlich unserer Zielgruppe fruchtbar, besonders für die funktionelle Beherrschung der deutschen Grammatik gestaltet werden kann.
Çağımızda bilim, teknik, sanat, kültür, ekonomi ve tıp alanındaki hızlı gelişmelerle birlikte çok sayıda yeni bilim dalları ve uzmanlık alanları ortaya çıkmıştır. Buna koşut olarak çeşitli bilim alanlarındaki çalışmalar ve araştırmalar da hızla artmış ve her bilim dalının kendine özgü bir uzmanlık dili oluşmuştur. Bu çalışmada, bir uzmanlık dili olan "Dilbilim Dili"nin özellikleri ve öğretimine ilişkin sorunlar irdelenecek ve çözüm önerileri geliştirilmeye çalışılacaktır. Bu konuyu ele alırken kısaca "Uzmanlık Dili" kavramı, tanımı ve özellikleri konusuna değinmek istiyorum.
Japanese is often taken to be strictly head-final in its syntax. In our work on a broad-coverage, precision implemented HPSG for Japanese, we have found that while this is generally true, there are nonetheless a few minor exceptions to the broad trend. In this paper, we describe the grammar engineering project, present the exceptions we have found, and conclude that this kind of phenomenon motivates on the one hand the HPSG type hierarchical approach which allows for the statement of both broad generalizations and exceptions to those generalizations and on the other hand the usefulness of grammar engineering as a means of testing linguistic hypotheses.
We present a broad coverage Japanese grammar written in the HPSG formalism with MRS semantics. The grammar is created for use in real world applications, such that robustness and performance issues play an important role. It is connected to a POS tagging and word segmentation tool. This grammar is being developed in a multilingual context, requiring MRS structures that are easily comparable across languages.
Based on a detailed case study of parallel grammar development distributed across two sites, we review some of the requirements for regression testing in grammar engineering, summarize our approach to systematic competence and performance profiling, and discuss our experience with grammar development for a commercial application. If possible, the workshop presentation will be organized around a software demonstration.
This paper proposes an annotating scheme that encodes honorifics (respectful words). Honorifics are used extensively in Japanese, reflecting the social relationship (e.g. social ranks and age) of the referents. This referential information is vital for resolving zero
pronouns and improving machine translation outputs. Annotating honorifics is a complex task that involves identifying a predicate with honorifics, assigning ranks to referents of the
predicate, calibrating the ranks, and connecting referents with their predicates.
We present an architecture for the integration of shallow and deep NLP components which is aimed at flexible combination of different language technologies for a range of practical current and future applications. In particular, we describe the integration of a high-level HPSG parsing system with different high-performance shallow components, ranging from named entity recognition to chunk parsing and shallow clause recognition. The NLP components enrich a representation of natural language text with layers of new XML meta-information using a single shared data structure, called the text chart. We describe details of the integration methods, and show how information extraction and language checking applications for realworld German text benefit from a deep grammatical analysis.
Hybrid robust deep and shallow semantic processing for creativity support in document production
(2004)
The research performed in the DeepThought project (http://www.project-deepthought.net) aims at demonstrating the potential of deep linguistic processing if added to existing shallow methods that ensure robustness. Classical information retrieval is extended by high precision concept indexing and relation detection. We use this approach to demonstrate the feasibility of three ambitious applications, one of which is a tool for creativity support in document production and collective brainstorming. This application is described in detail in this paper. Common to all three applications, and the basis for their development is a platform for integrated linguistic processing. This platform is based on a generic software architecture that combines multiple NLP components and on robust minimal recursive semantics (RMRS) as a uniform representation language.
In this paper we show an approach to the customization of GermaNet to the German HPSG grammar lexicon developed in the Verbmobil project. GermaNet has a broad coverage of the German base vocabulary and fine-grained semantic classification; while the HPSG grammar lexicon is comparatively small und has a coarse-grained semantic classification. In our approach, we have developed a mapping algorithm to relate the synsets in GermaNet with the semantic sorts in HPSG. The evaluation result shows that this approach is useful for the lexical extension of our deep grammar development to cope with real-world text understanding.
Particles fullfill several distinct central roles in the Japanese language. They can mark arguments as well as adjuncts, can be functional or have semantic functions. There is, however, no straightforward matching from particles to functions, as, e.g., 'ga' can mark the subject, the object or the adjunct of a sentence. Particles can cooccur. Verbal arguments that could be identified by particles can be eliminated in the Japanese sentence. And finally, in spoken language particles are often omitted. A proper treatment of particles is thus necessary to make an analysis of Japanese sentences possible. Our treatment is based on an empirical investigation of 800 dialogues. We set up a type hierarchy of particles motivated by their subcategorizational and modificational behaviour. This type hierarchy is part of the Japanese syntax in VERBMOBIL.
Sprachtechnologie für übersetzungsgerechtes Schreiben am Beispiel Deutsch, Englisch, Japanisch
(2009)
Wir [...] haben uns zur Aufgabe gesetzt, Wege zu finden, wie linguistisch basierte Software den Prozess des Schreibens technischer Dokumentation unterstützen kann. Dabei haben wir einerseits die Schwierigkeiten im Blick, die japanische und deutsche Autoren (und andere Nicht-Muttersprachler des Englischen) beim Schreiben englischer Texte haben. Besonders japanische Autoren haben mit Schwierigkeiten zu kämpfen, weil sie hochkomplexe Ideen in einer Sprache ausdrücken müssen, die von Informationsstandpunkt her sehr unterschiedlich zu ihrer Muttersprache ist. Andererseits untersuchen wir technische Dokumentation, die von Autoren in ihrer Muttersprache geschrieben wird. Obwohl hier die fremdsprachliche Komponente entfällt, ist doch auch erhebliches Verbesserungspotential vorhanden. Das Ziel ist hier, Dokumente verständlich, konsistent und übersetzungsgerecht zu schreiben. Der fundamentale Ansatz in der Entwicklung linguistisch-basierter Software ist, dass gute linguistische Software auf Datenmaterial basiert und sich an den konkreten Zielen der besseren Dokumentation orientiert.
Preferences and defaults for definiteness and number in japanese to german machine translation
(1996)
A significant problem when translating Japanese dialogues into German is the missing information on number and definiteness in the Japanese analysis output. The integration of the search for such information into the transfer process provides an efficient solution. General transfer includes conditions to make it possible to consider external knowledge. Thereby, grammatical and lexical knowledge of the source language, knowledge of lexical restrictions on the target language, domain knowledge and discourse knowledge are accessible.
Die Entwicklung eines individuellen Standards „vom grünen Tisch“ führt selten zu zufriedenstellenden Ergebnissen. Bei der automatischen Prüfung stellt man schnell fest, dass die „ausgedachten“ Regeln einer systematischen Anwendung nicht standhalten. Bei der Implementierung solcher Richtlinien stellt man fest, dass sie oft zu wenig konkret formuliert sind, wie z.B. „formulieren Sie Handlungsanweisungen knapp und präzise“. Wie jedoch kann ein Standard entwickelt werden, der zu einem Unternehmen, seiner Branche und Zielgruppen passt und für die automatische Prüfung implementiert werden kann? Sprachtechnologie hilft effizient bei der Entwicklung individueller Richtlinien. Durch Datenanalyse, Satzcluster und Parametrisierung entsteht ein textspezifischer individueller Standard. Ist damit aber der Gegensatz von Kreativität und Standardisierung aufgehoben?
We present a solution for the representation of Japanese honorifical information in the HPSG framework. Basically, there are three dimensions of honorification. We show that a treatment is necessary that involves both the syntactic and the contextual level of information. The japanese grammar is part of a machine translation system.
The research performed in the DeepThought project aims at demonstrating the potential of deep linguistic processing if combined with shallow methods for robustness. Classical information retrieval is extended by high precision concept indexing and relation detection. On the basis of this approach, the feasibility of three ambitious applications will be demonstrated, namely: precise information extraction for business intelligence; email response management for customer relationship management; creativity support for document production and collective brainstorming. Common to these applications, and the basis for their development is the XML-based, RMRS-enabled core architecture framework that will be described in detail in this paper. The framework is not limited to the applications envisaged in the DeepThought project, but can also be employed e.g. to generate and make use of XML standoff annotation of documents and linguistic corpora, and in general for a wide range of NLP-based applications and research purposes.
In this paper we describe SOBA, a sub-component of the SmartWeb multi-modal dialog system. SOBA is a component for ontologybased information extraction from soccer web pages for automatic population of a knowledge base that can be used for domainspecific question answering. SOBA realizes a tight connection between the ontology, knowledge base and the information extraction component. The originality of SOBA is in the fact that it extracts information from heterogeneous sources such as tabular structures, text and image captions in a semantically integrated way. In particular, it stores extracted information in a knowledge base, and in turn uses the knowledge base to interpret and link newly extracted information with respect to already existing entities.
This demo abstract describes the SmartWeb Ontology-based Information Extraction System (SOBIE). A key feature of SOBIE is that all information is extracted and stored with respect to the SmartWeb ontology. In this way, other components of the systems, which use the same ontology, can access this information in a straightforward way. We will show how information extracted by SOBIE is visualized within its original context, thus enhancing the browsing experience of the end user.
The Deep Linguistic Processing with HPSG Initiative (DELH-IN) provides the infrastructure needed to produce open-source semantic transfer-based machine translation systems. We have made available a prototype Japanese-English machine translation system built from existing resources include parsers, generators, bidirectional grammars and a transfer engine.
While the sortal constraints associated with Japanese numeral classifiers are wellstudied, less attention has been paid to the details of their syntax. We describe an analysis implemented within a broadcoverage HPSG that handles an intricate set of numeral classifier construction types and compositionally relates each to an appropriate semantic representation, using Minimal Recursion Semantics.
Standardisierung ist der bedeutendste Ansatz zu Qualitätssteigerung und Kostensenkung in der Technischen Dokumentation. Es gibt eine Reihe von Standardisierungsansätzen: Modularisierung, Informationsstrukturen, Terminologie, Sprachstrukturen. Dennoch werden diese Ebenen meist getrennt voneinander beschrieben. Wir untersuchen, wie Standardisierungen im Informationsmodell, in der Terminologie und in den sprachlichen Strukturen verknüpft werden und miteinander interagieren.
Der Übersetzungsprozess der Technischen Dokumentation wird zunehmend mit Maschineller Übersetzung (MÜ) unterstützt. Wir blicken zunächst auf die Ausgangstexte und erstellen automatisch prüfbare Regeln, mit denen diese Texte so editiert werden können, dass sie optimale Ergebnisse in der MÜ liefern. Diese Regeln basieren auf Forschungsergebnissen zur Übersetzbarkeit, auf Forschungsergebnissen zu Translation Mismatches in der MÜ und auf Experimenten.