Linguistik
Refine
Year of publication
Document Type
- Article (1356)
- Part of a Book (784)
- Working Paper (254)
- Review (181)
- Conference Proceeding (166)
- Preprint (122)
- Book (108)
- Part of Periodical (64)
- Report (58)
- Doctoral Thesis (23)
Language
- English (1538)
- German (1054)
- Croatian (298)
- Portuguese (120)
- Turkish (43)
- Multiple languages (24)
- French (21)
- mis (16)
- Spanish (7)
- Polish (4)
Has Fulltext
- yes (3134) (remove)
Keywords
- Deutsch (436)
- Syntax (151)
- Linguistik (127)
- Englisch (123)
- Semantik (112)
- Spracherwerb (96)
- Phonologie (86)
- Rezension (77)
- Kroatisch (68)
- Fremdsprachenlernen (67)
Institute
- Extern (438)
- Institut für Deutsche Sprache (IDS) Mannheim (113)
- Neuere Philologien (43)
- Sprachwissenschaften (43)
- Universitätsbibliothek (4)
- Sprach- und Kulturwissenschaften (3)
- Gesellschaftswissenschaften (2)
- Medizin (2)
- Präsidium (2)
- SFB 268 (2)
Sieht man neuere Grammatiken des Deutschen daraufhin durch, wie die Masse der Verben bezüglich ihres semantischen Gehalts klassifiziert wird, stellt sich bald heraus, daß hier kein Konsens besteht. Die DUDEN-Grammatik beispielsweise unterscheidet Bedeutungsgruppen: Tätigkeitsverben (mit der Untergruppe Handlungsverben), Vorgangsverben und Zustandsverben, BRINKMANN fügt diesen drei Klassen die Geschehensverben und die Witterungsverben hinzu; RENICKE gliedert die Verben in 2 Klassen Punktuelle Verben und Ausdehnungsverben. FLÄMIG schlägt semantische Subklassifizierungen unter drei verschiedenen Gesichtspunkten vor: hinsichtlich des Anteils der Verben "an der komplexen Geschehens-/Seinsbezeichnung", hinsichtlich "der Verlaufsweise eines Geschehens" und hinsichtlich "der Charakteristik eines Geschehens/Seins in bezug auf entsprechende Sachverhalte", die letztere Klassifikation unterscheidet Handlungsverben, Tätigkeitsverben, Vorgangsverben, Ereignisverben und Zustandsverben. [...] Eine semantische Analyse der Fortbewegungsverben des Althochdeutschen liegt meines wissens nicht vor, stellt also eine reizvolle Aufgabe dar, zu deren Lösung hier erste Schritte unternommen werden sollen.
Thema der vorliegenden Arbeit ist es, das von Hirst & Weil (1982) durchgeführte Experiment, in dem das Verständnis epistemisch und deontisch modalisierter englischer Äußerungen bei 3;0 - 6;0 Jahre alten Kindern getestet wurde, im Deutschen nachzuvollziehen. Im Rahmen dieser Arbeit wird nur das Verständnis epistemisch verwendeter MV untersucht. Das Experiment bestand aus einer Vorstudie mit 13 erwachsenen Sprechern […] und einer Hauptstudie mit 40 Kindern, die einen Kindergarten in Solingen-Ohligs besuchten. Die Kinder waren zwischen 3;0 und 6;0 Jahre alt. Durch die Reaktionen der Kinder in einer entsprechend der von Hirst & Weil für die epistemische Verwendung der MV entwickelten Spielhandlung wurde ihr Verständnis modalisierter oder faktischer Aussagen ermittelt. Entscheidend für die Auswertung war die erste spontane Reaktion des Kindes auf die Aufforderung der Puppen, ein Bonbon zu suchen. Dem Satzpaar, mit dem das Kind konfrontiert wurde, lag folgendes Muster zugrunde: "Das Bonbon (MV 1) unter der Dose sein" vs. "Das Bonbon (MV 2) unter der Tasse sein". Getestet wurden die MV "wird", "muß", "kann". Diese waren jeweils miteinander und mit ist kombiniert, so daß die Oppositionspaare "muß:wird", "muß:kann", "wird:kann" und "ist:muß", "ist:wird", "ist:kann" entstanden. […] Das Experiment setzte sich aus zwei Serien zusammen, wobei sich die zweite von der ersten dadurch unterschied, daß die Abfolge der MV in den Satzpaaren vertauscht war. Die Anordnung der Oppositionspaare und die Kombination der MV erfolgte nach dem Zufallsprinzip. Die mit Hilfe der Untersuchung zu beantwortenden Fragestellungen lauten: Mit wieviel Jahren versteht das Kind den Unterschied zwischen faktischer und modaler Äußerung? Wie vollzieht sich die Differenzierung innerhalb des modalen Feldes muß, wird, kann?
In this text, we describe the development of a broad coverage grammar for Japanese that has been built for and used in different application contexts. The grammar is based on work done in the Verbmobil project (Siegel 2000) on machine translation of spoken dialogues in the domain of travel planning. The second application for JACY was the automatic email response task. Grammar development was described in Oepen et al. (2002a). Third, it was applied to the task of understanding material on mobile phones available on the internet, while embedded in the project DeepThought (Callmeier et al. 2004, Uszkoreit et al. 2004). Currently, it is being used for treebanking and ontology extraction from dictionary definition sentences by the Japanese company NTT (Bond et al. 2004).
Das Problem des Transfers in der maschinellen Übersetzung von Japanisch nach Englisch ist fehlende Information über Numerus und Definitheit im Japanischen, die für die Wahl der englischen Artikel und die Nomenmarkierung gebraucht wird. Obwohl dieses Problem signifikant ist, beschäftigt sich die Forschungsliteratur kaum damit. [...] Wir bsaieren unsere Untersuchungen auf experimentell erhobenen Daten aus einem Experiment über deutsch-japanische gedolmetschte Terminaushandlungsdialoge [...]. Auf diese Weise können Phänomene bestimmt werden, die für die Domäne von VERBMOBIL relevant sind. Wir sehen unser Vorgehen in Übereinstimmung mit dem 'Sublanguage'-Ansatz [...].
Eins der signifikanten Probleme in der maschinellen Übersetzung japanische in deutsche Sprache ist die fehlende Information und Definitheit im japanischen Analyse-Output. Eine effiziente Lösung dieses Problems ist es, die Suche nach der relevanten Information in den Transfer zu integrieren. Transferregeln werden mit Präferenzregeln und Default-Regeln kombiniert. Dadurch wird Information über lexikalische Restriktionen der Zielsprache, über die Domäne und über den Diskurs zugänglich.
Japanese is often taken to be strictly head-final in its syntax. In our work on a broad-coverage, precision implemented HPSG for Japanese, we have found that while this is generally true, there are nonetheless a few minor exceptions to the broad trend. In this paper, we describe the grammar engineering project, present the exceptions we have found, and conclude that this kind of phenomenon motivates on the one hand the HPSG type hierarchical approach which allows for the statement of both broad generalizations and exceptions to those generalizations and on the other hand the usefulness of grammar engineering as a means of testing linguistic hypotheses.
We present a broad coverage Japanese grammar written in the HPSG formalism with MRS semantics. The grammar is created for use in real world applications, such that robustness and performance issues play an important role. It is connected to a POS tagging and word segmentation tool. This grammar is being developed in a multilingual context, requiring MRS structures that are easily comparable across languages.
Based on a detailed case study of parallel grammar development distributed across two sites, we review some of the requirements for regression testing in grammar engineering, summarize our approach to systematic competence and performance profiling, and discuss our experience with grammar development for a commercial application. If possible, the workshop presentation will be organized around a software demonstration.
This paper proposes an annotating scheme that encodes honorifics (respectful words). Honorifics are used extensively in Japanese, reflecting the social relationship (e.g. social ranks and age) of the referents. This referential information is vital for resolving zero
pronouns and improving machine translation outputs. Annotating honorifics is a complex task that involves identifying a predicate with honorifics, assigning ranks to referents of the
predicate, calibrating the ranks, and connecting referents with their predicates.
Some requirements for a VERBMOBIL system capable of processing Japanese dialogue input have been explored. Based on a pilot study in the VERBMOBIL domain, dialogues between 2 participants and a professional Japanese interpreter have been analyzed with respect to a very typical and frequent feature: zero pronouns. Zero pronouns in Japanese texts or dialogues as well as overt pronouns in English texts or dialogues are an important element of discourse coherence. As to translation, this difference in the use of pronouns is a case of translation mismatch: information not explicitly expressed in the source language is needed in the target language. (Verb argument positions, normally obligatory in English, are rather frequently omitted in Japanese. Furthermore, verbs in Japanese are not marked with respect to features necessary for pronoun selection in English.)
We present an architecture for the integration of shallow and deep NLP components which is aimed at flexible combination of different language technologies for a range of practical current and future applications. In particular, we describe the integration of a high-level HPSG parsing system with different high-performance shallow components, ranging from named entity recognition to chunk parsing and shallow clause recognition. The NLP components enrich a representation of natural language text with layers of new XML meta-information using a single shared data structure, called the text chart. We describe details of the integration methods, and show how information extraction and language checking applications for realworld German text benefit from a deep grammatical analysis.
Hybrid robust deep and shallow semantic processing for creativity support in document production
(2004)
The research performed in the DeepThought project (http://www.project-deepthought.net) aims at demonstrating the potential of deep linguistic processing if added to existing shallow methods that ensure robustness. Classical information retrieval is extended by high precision concept indexing and relation detection. We use this approach to demonstrate the feasibility of three ambitious applications, one of which is a tool for creativity support in document production and collective brainstorming. This application is described in detail in this paper. Common to all three applications, and the basis for their development is a platform for integrated linguistic processing. This platform is based on a generic software architecture that combines multiple NLP components and on robust minimal recursive semantics (RMRS) as a uniform representation language.
In this paper we show an approach to the customization of GermaNet to the German HPSG grammar lexicon developed in the Verbmobil project. GermaNet has a broad coverage of the German base vocabulary and fine-grained semantic classification; while the HPSG grammar lexicon is comparatively small und has a coarse-grained semantic classification. In our approach, we have developed a mapping algorithm to relate the synsets in GermaNet with the semantic sorts in HPSG. The evaluation result shows that this approach is useful for the lexical extension of our deep grammar development to cope with real-world text understanding.
Particles fullfill several distinct central roles in the Japanese language. They can mark arguments as well as adjuncts, can be functional or have semantic functions. There is, however, no straightforward matching from particles to functions, as, e.g., 'ga' can mark the subject, the object or the adjunct of a sentence. Particles can cooccur. Verbal arguments that could be identified by particles can be eliminated in the Japanese sentence. And finally, in spoken language particles are often omitted. A proper treatment of particles is thus necessary to make an analysis of Japanese sentences possible. Our treatment is based on an empirical investigation of 800 dialogues. We set up a type hierarchy of particles motivated by their subcategorizational and modificational behaviour. This type hierarchy is part of the Japanese syntax in VERBMOBIL.
Sprachtechnologie für übersetzungsgerechtes Schreiben am Beispiel Deutsch, Englisch, Japanisch
(2009)
Wir [...] haben uns zur Aufgabe gesetzt, Wege zu finden, wie linguistisch basierte Software den Prozess des Schreibens technischer Dokumentation unterstützen kann. Dabei haben wir einerseits die Schwierigkeiten im Blick, die japanische und deutsche Autoren (und andere Nicht-Muttersprachler des Englischen) beim Schreiben englischer Texte haben. Besonders japanische Autoren haben mit Schwierigkeiten zu kämpfen, weil sie hochkomplexe Ideen in einer Sprache ausdrücken müssen, die von Informationsstandpunkt her sehr unterschiedlich zu ihrer Muttersprache ist. Andererseits untersuchen wir technische Dokumentation, die von Autoren in ihrer Muttersprache geschrieben wird. Obwohl hier die fremdsprachliche Komponente entfällt, ist doch auch erhebliches Verbesserungspotential vorhanden. Das Ziel ist hier, Dokumente verständlich, konsistent und übersetzungsgerecht zu schreiben. Der fundamentale Ansatz in der Entwicklung linguistisch-basierter Software ist, dass gute linguistische Software auf Datenmaterial basiert und sich an den konkreten Zielen der besseren Dokumentation orientiert.
Preferences and defaults for definiteness and number in japanese to german machine translation
(1996)
A significant problem when translating Japanese dialogues into German is the missing information on number and definiteness in the Japanese analysis output. The integration of the search for such information into the transfer process provides an efficient solution. General transfer includes conditions to make it possible to consider external knowledge. Thereby, grammatical and lexical knowledge of the source language, knowledge of lexical restrictions on the target language, domain knowledge and discourse knowledge are accessible.
Ein einer Äußerung können Nullpronomina aus mehreren [...] Gruppen vorkommen. Die [...] Gruppen können auf die Ebenen eines Schicht-Dialogmodells bezogen werden; andererseits können sie Hinweise geben, welche Informationen in einem Dialogmodell verfügbar sein sollten. Dies wird in der Folgezeit genauer zu untersuchen sein. Im folgenden werden die genannten Typen von Nullpronomina genauer dargestellt und Lösungsverfahren zum Auffinden der Referenten genannt.
Die Entwicklung eines individuellen Standards „vom grünen Tisch“ führt selten zu zufriedenstellenden Ergebnissen. Bei der automatischen Prüfung stellt man schnell fest, dass die „ausgedachten“ Regeln einer systematischen Anwendung nicht standhalten. Bei der Implementierung solcher Richtlinien stellt man fest, dass sie oft zu wenig konkret formuliert sind, wie z.B. „formulieren Sie Handlungsanweisungen knapp und präzise“. Wie jedoch kann ein Standard entwickelt werden, der zu einem Unternehmen, seiner Branche und Zielgruppen passt und für die automatische Prüfung implementiert werden kann? Sprachtechnologie hilft effizient bei der Entwicklung individueller Richtlinien. Durch Datenanalyse, Satzcluster und Parametrisierung entsteht ein textspezifischer individueller Standard. Ist damit aber der Gegensatz von Kreativität und Standardisierung aufgehoben?
Die Domäne in VERBMOBIL sind Terminaushandlungsdialoge. Für die Syntax bedeutet das zunächst, daß die Sytnax sich an gesprochener Sprache orientieren muß. Das beinhaltet Nullanaphern, Phrasen, die auf die Kommunikationssituation bezogen sind und Phrasen, die für geschriebene Sprache als nicht wohlgeformt bezeichnet werden. Weitergehend gibt es einige domänenspezifische syntaktische besonderheiten, wie zum Biepsiel die Realisierung von Zeitangaben.
A comprehensive investigation of Japanese particle was missing up to now. General implications were set up without the fact that a comprehensive analysis was carried out. [...] We offer a lexicalist treatment of the problem. Instead of assuming different phrase structure rules we state a type hierarchy of Japanese particles. This makes a uniform treatment of phrase structure as well as a differentiation of subcategorization patterns possible.
We present a solution for the representation of Japanese honorifical information in the HPSG framework. Basically, there are three dimensions of honorification. We show that a treatment is necessary that involves both the syntactic and the contextual level of information. The japanese grammar is part of a machine translation system.
The research performed in the DeepThought project aims at demonstrating the potential of deep linguistic processing if combined with shallow methods for robustness. Classical information retrieval is extended by high precision concept indexing and relation detection. On the basis of this approach, the feasibility of three ambitious applications will be demonstrated, namely: precise information extraction for business intelligence; email response management for customer relationship management; creativity support for document production and collective brainstorming. Common to these applications, and the basis for their development is the XML-based, RMRS-enabled core architecture framework that will be described in detail in this paper. The framework is not limited to the applications envisaged in the DeepThought project, but can also be employed e.g. to generate and make use of XML standoff annotation of documents and linguistic corpora, and in general for a wide range of NLP-based applications and research purposes.
In this paper we describe SOBA, a sub-component of the SmartWeb multi-modal dialog system. SOBA is a component for ontologybased information extraction from soccer web pages for automatic population of a knowledge base that can be used for domainspecific question answering. SOBA realizes a tight connection between the ontology, knowledge base and the information extraction component. The originality of SOBA is in the fact that it extracts information from heterogeneous sources such as tabular structures, text and image captions in a semantically integrated way. In particular, it stores extracted information in a knowledge base, and in turn uses the knowledge base to interpret and link newly extracted information with respect to already existing entities.
This demo abstract describes the SmartWeb Ontology-based Information Extraction System (SOBIE). A key feature of SOBIE is that all information is extracted and stored with respect to the SmartWeb ontology. In this way, other components of the systems, which use the same ontology, can access this information in a straightforward way. We will show how information extracted by SOBIE is visualized within its original context, thus enhancing the browsing experience of the end user.
Dialogue acts in Verbmobil 2
(1998)
This report describes the dialogue phases and the second edition dialogue acts which are used in the VERBMOBIL 2 project [...]. While in the first project phase the scenario was restricted to appointment scheduling dialogues, it has been extended to travel planning in the second phase with appointment scheduling being only a part of the new scenario.
The Deep Linguistic Processing with HPSG Initiative (DELH-IN) provides the infrastructure needed to produce open-source semantic transfer-based machine translation systems. We have made available a prototype Japanese-English machine translation system built from existing resources include parsers, generators, bidirectional grammars and a transfer engine.
While the sortal constraints associated with Japanese numeral classifiers are well-studied, less attention has been paid to the details of their syntax. We describe an analysis implemented within a broad-coverage HPSG that handles an intricate set of numeral classifier construction types and compositionally relates each to an appropriate semantic representation, using Minimal Recursion Semantics.
While the sortal constraints associated with Japanese numeral classifiers are wellstudied, less attention has been paid to the details of their syntax. We describe an analysis implemented within a broadcoverage HPSG that handles an intricate set of numeral classifier construction types and compositionally relates each to an appropriate semantic representation, using Minimal Recursion Semantics.
Standardisierung ist der bedeutendste Ansatz zu Qualitätssteigerung und Kostensenkung in der Technischen Dokumentation. Es gibt eine Reihe von Standardisierungsansätzen: Modularisierung, Informationsstrukturen, Terminologie, Sprachstrukturen. Dennoch werden diese Ebenen meist getrennt voneinander beschrieben. Wir untersuchen, wie Standardisierungen im Informationsmodell, in der Terminologie und in den sprachlichen Strukturen verknüpft werden und miteinander interagieren.
Der Übersetzungsprozess der Technischen Dokumentation wird zunehmend mit Maschineller Übersetzung (MÜ) unterstützt. Wir blicken zunächst auf die Ausgangstexte und erstellen automatisch prüfbare Regeln, mit denen diese Texte so editiert werden können, dass sie optimale Ergebnisse in der MÜ liefern. Diese Regeln basieren auf Forschungsergebnissen zur Übersetzbarkeit, auf Forschungsergebnissen zu Translation Mismatches in der MÜ und auf Experimenten.
We present an effort for the development of multilingual named entity grammars in a unification-based finite-state formalism (SProUT). Following an extended version of the MUC7 standard, we have developed Named Entity Recognition grammars for German, Chinese, Japanese, French, Spanish, English, and Czech. The grammars recognize person names, organizations, geographical locations, currency, time and date expressions. Subgrammars and gazetteers are shared as much as possible for the grammars of the different languages. Multilingual corpora from the business domain are used for grammar development and evaluation. The annotation format (named entity and other linguistic information) is described. We present an evaluation tool which provides detailed statistics and diagnostics, allows for partial matching of annotations, and supports user-defined mappings between different annotation and grammar output formats.
Pokazatelji brojivosti
(2007)
U radu se analizira drugi cjeloviti objavljeni prijevod Svetoga pisma na hrvatski jezik, Škarićevo Sveto pismo Staroga i Novoga uvita (Beč, 1858. – 1861.); opisuju se njegove jezične osobine, utvrđuje se njegovo mjesto u dugoj hrvatskoj svetopisamskoj prevodilačkoj tradiciji te njegov utjecaj na proces standardizacije hrvatskoga jezika.
U ovome se radu pokušava dati pregled mnogobrojnih i raznolikih odraza svetačkog imena Juraj u hrvatskome antroponimijskom sustavu s osobitim naglaskom na područje Zažablja (prostora između rječice Misline, istočno od Metkovića, i zapadnih granica nekadašnje Dubrovačke Republike, a danas općine Dubrovačko primorje, te prostora od Hrasna na sjeveru do Neuma na jugu) i Popova (jugozapadne Hercegovine). Na temelju odabrane literature i autorova terenskog istraživanja nastoje se iznijeti i neke izvanjezične (poglavito povijesne i sociolingvističke) činjenice koje su uzrok takvu stanju.
U radu se analizira sintaktička funkcija participa u hrvatskome jeziku 15./16. st. jer su se otprilike u to vrijeme u sintaktičkom ustrojstvu (staro)hrvatskoga jezika događale vrlo krupne jezične promjene, koje su posljedica “departicipijalizacije” participa, tj. preobrazbe naslijeđenih participnih oblika u glagolske priloge.
U radu se analizira uloga jednog tipa referencijalnih izraza – anaforičkih izraza – u diskurzivnom oblikovanju odabranog medijsko-znanstvenog događaja (“uskrsnuće” bakterije Deinococcus radiodurans). Predlaže se transverzalna analiza anaforičkih izraza utemeljena na modularnom pristupu kompleksnosti organizacije diskursa i na dinamičnoj koncepciji anaforičke referencije, shvaćene kao segment šireg procesa konceptualnog strukturiranja svijeta diskursa i usuglašavanja mentalnih predodžbi sudionika u interakciji.
Predmet ovog rada su kajkavizmi u Tkonskom zborniku – glagoljskom rukopisu koji je početkom 16. stoljeća pisan na frankopanskim posjedima. Utvrđeno je da su u tom rukopisu prisutni kajkavizmi na svim razinama: fonološkoj, morfološkoj, leksičkoj i sintaktičkoj. Najviše je kajkavizama na leksičkoj razini, a oni se mogu podijeliti u dvije skupine: 1. zajednički čakavsko- kajkavski sloj, npr. betegь, gdo, nigdar, hiniti, hud, kaštigati, lotar itd.; 2. kajkavski sloj, npr. fajtati, gorup, nekoteri, pokrivača, škoda, špotati, tanac itd. Prva je kategorija leksema interpolirana u gotovo svim dijelovima CTk, a druga je najčešća u Cvetu od kreposti i Muci. Tkonski zbornik čuva jedno ogromno leksičko bogatstvo, a pri usporedbi pojedinih leksema s onima u hrvatskoglagoljskim misalima i brevijarima, zaključeno je da su neki od njih potvrđeni i ranije, npr. betegь, kaštigati, praviti, gorup, tanac itd. To je potvrda o kontinuitetu hrvatskoglagoljske književnosti. Interpolacija kajkavizama nije ujednačena u svim dijelovima zbornika, kajkavske su intervencije najčešće u Cvetu od kreposti (f. 67 – 85) i u Muci Spasitelja našega (f. 109 – 161). Na temelju provedenog istraživanja može se zaključiti da je Tkonski zbornik rukopis sastavljen iz različitih dijelova, koji nisu nastali u istom razdoblju, ni na istom mjestu. Budući da kajkavizme u pojedinim dijelovima nalazimo na svim razinama (Cvet od kreposti i Muka), može se pretpostaviti da su oni nastali u sjevernom području, tj. bliže kajkavskom.
U radu se iznose tzv. lažni parovi (prijatelji), leksemi u hrvatskom i rumunjskom jeziku koji zbog svoje izrazne podudarnosti navode na pogrešno prevođenje. Navode se značajke koje su dovele do takvih pojava. S obzirom na podrijetlo, najčešće je riječ o leksemima naslijeđenima iz latinskoga jezika ili kasnijim romanizmima te dakako slavenskima, kojih je u rumunjskome nezanemariv broj. Izdvojeni se leksemi razvrstavaju u tablicu koja omogućuje njihovu prozirniju usporedbu i lakše prepoznavanje.