Refine
Year of publication
- 2013 (4) (remove)
Document Type
- Article (2)
- Conference Proceeding (1)
- Working Paper (1)
Has Fulltext
- yes (4) (remove)
Is part of the Bibliography
- no (4)
Keywords
- Korpus <Linguistik> (4) (remove)
What do corpora reveal about ongoing grammaticalization and transitions between word class categories? Everything, something, or nothing? Using the example of the lexemes nicneříkající, nichtssagend, všeříkající and vielsagend the authors examine the syntactic distribution and semantics of participial adjectives. To what extent do the Czech and German equivalents differ? What (if any) effect does the orthography have (i.e. whether the expressions are written as compounds or as chains of separate words)? Is a new form accompanied by a new function? The text presents an analysis of monolingual corpora (SYN, DeReKo) and a parallel corpus (InterCorp).
In dem Beitrag wird am Beispiel von zwei Emotionsverben des Deutschen und Tschechischen exemplarisch der Frage nachgegangen, wie typische Kollokationen zum Emotionswortschatz für die Belange eines zweisprachigen (tschechischdeutschen und deutsch-tschechischen) (Lerner-)Wörterbuches zu ermitteln sind. Im Mittelpunkt des Interesses befinden sich Kollokationen des Strukturtyps Verb + Adverb, weil dieser Typ von der Forschung bis jetzt nur ungenügend beachtet wurde. In einem ersten Schritt wird die Beschreibungspraxis in neueren ein- und zweisprachigen Wörterbüchern untersucht. In einem zweiten Schritt werden die Ergebnisse der Kookkurrenzanalyse zu den ausgewählten Ausdrücken anhand des Deutschen Referenzkorpus des IDS Mannheim und des Tschechischen Nationalkorpus ausgewertet. Zum Schluss werden aus den Ergebnissen der Gegenüberstellung Beschreibungsvorschläge für die lexikographische Praxis gemacht.
This paper deals with spelling normalization of historical texts with regard to further processing with modern part-of-speech taggers. Different methods for this task are presented and evaluated on a set of historical German texts from the 15th–18th century, and specific problems inherent to the processing of historical data are discussed. A chain combination using word-based and character-based techniques is shown to be best for normalization, while POS tagging of normalized data is shown to benefit from ignoring punctuation marks. Using these techniques, when 500 manually normalized tokens are used as training data for the normalization, the tagging accuracy of a manuscript from the 15th century can be raised from 28.65% to 76.27%.