Preprint
Refine
Year of publication
Document Type
- Preprint (82) (remove)
Has Fulltext
- yes (82)
Is part of the Bibliography
- no (82)
Keywords
- Deutsch (16)
- Multicomponent Tree Adjoining Grammar (9)
- Syntaktische Analyse (8)
- Syntax (8)
- Semantik (6)
- Kongress (5)
- Optimalitätstheorie (5)
- Range Concatenation Grammar (5)
- Aufsatzsammlung (4)
- German (4)
Institute
- Extern (82) (remove)
Distributional approximations to lexical semantics are very useful not only in helping the creation of lexical semantic resources (Kilgariff et al., 2004; Snow et al., 2006), but also when directly applied in tasks that can benefit from large-coverage semantic knowledge such as coreference resolution (Poesio et al., 1998; Gasperin and Vieira, 2004; Versley, 2007), word sense disambiguation (Mc- Carthy et al., 2004) or semantical role labeling (Gordon and Swanson, 2007). We present a model that is built from Webbased corpora using both shallow patterns for grammatical and semantic relations and a window-based approach, using singular value decomposition to decorrelate the feature space which is otherwise too heavily influenced by the skewed topic distribution of Web corpora.
Parsing coordinations
(2009)
The present paper is concerned with statistical parsing of constituent structures in German. The paper presents four experiments that aim at improving parsing performance of coordinate structure: 1) reranking the n-best parses of a PCFG parser, 2) enriching the input to a PCFG parser by gold scopes for any conjunct, 3) reranking the parser output for all possible scopes for conjuncts that are permissible with regard to clause structure. Experiment 4 reranks a combination of parses from experiments 1 and 3. The experiments presented show that n- best parsing combined with reranking improves results by a large margin. Providing the parser with different scope possibilities and reranking the resulting parses results in an increase in F-score from 69.76 for the baseline to 74.69. While the F-score is similar to the one of the first experiment (n-best parsing and reranking), the first experiment results in higher recall (75.48% vs. 73.69%) and the third one in higher precision (75.43% vs. 73.26%). Combining the two methods results in the best result with an F-score of 76.69.
Während der Brief in Zeiten von persönlichen Krisen und Konflikten mancherlei Unannehmlichkeiten aus dem Kommunikationsweg räumt, stellt der Kontext Krieg für das Briefeschreiben in vielerlei Hinsicht eine Herausforderung dar. Der Privatbrief (Epistula familiaris) ist in der ersten Hälfte des 20. Jahrhunderts in Westeuropa – das heisst auch zur Zeit des 2. Weltkriegs – das wichtigste Medium informeller Distanzkommunikation, welche im Allgemeinen durch Inoffizialität und Spontaneität, durch Individualität und Vertraulichkeit gekennzeichnet ist. In der Regel ist der Privatbrief im juristischen Sinne nicht verfügbar. Ein Kennzeichen ist somit auch seine Nichtreproduzierbarkeit. Neben der thematischen Offenheit macht sich meist eine stärkere stilistische Freiheit bemerkbar. Zeichen von Flüchtigkeit oder Sorgfalt sind ausser den Formalia des Datums, der Anrede, des Textkörpers und der Unterschrift, über das geschriebene Wort hinaus nonverbale Informationen wie die Lesbarkeit der Schrift, die Wahl des Papiers, Schreibwerkzeug sowie die Länge eines Briefes (vgl. Ermert 1979, Nickisch 1991, Beyer/ Täubrich 1996, Zott 2003). Der Privatbrief wird zwar im graphischen Medium der Schrift realisiert, steht aber stilistisch der konzeptionellen "Mündlichkeit" näher. (Koch/ Oesterreicher 1994, 587) Der private Briefwechsel wird spontan aufgenommen und kann in der Regel ohne Zwang abgebrochen werden (vgl. Zott 2003). ...
Liebesbriefe von Kindern, Jugendlichen und Erwachsenen : eine Textsorte im lebenszeitlichen Wandel
(2003)
Das Alter als soziolinguistische und – mit Bezug auf die Historizität des sozialen Alltags – als sozialhistorische Grösse ist in seiner Wirkung auf die Gestaltung des Liebesbriefs wenig offensichtlich. Unbestritten dürfte aber wohl sein, dass nicht alterslose Menschen einander Liebesbriefe schreiben. Und – Alter prägt, wie dies die hier vorliegende empirische Analyse zeigen wird, die Textsorte Liebesbrief vielleicht stärker als gemeinhin angenommen. Bereits die Briefstellerliteratur der Jahrhundertwende zeigt deutlich eine Altersspezifik der Sprache des Liebesbriefs. ...
Der Liebesbrief des 20. Jahrhunderts ist Ausdruck einer konkreten lebensweltlichen und historisch zu verortenden Praxis der Liebeskommunikation. Liebesbriefe sind Brautbriefe, Liebesbekenntnisse, Berichte aus dem Alltag, Soldatenbriefe, Vereinbarungen von Treffen, E-Mail-Korrespondenzen, Flirtbriefe und Zettelchen – es gibt eine reiche Palette an Funktionen und Typen. Im Hinblick auf eine Geschichte des Liebesbriefs im 20. Jahrhunderts zeigte sich, dass im Liebesbrief neben der Liebeserklärung auch „Beziehungsarbeit“ und besonders aber die Konstruktion von Intimität eine zentrale Rolle spielt. Die Kritik an der Sprache der Liebe und des Liebesbriefs (des 19. Jahrhunderts) kann bereits in den 1920er Jahren beobachtet werden. Zu einem Codewechsel kommt es in Briefen der 1960er Jahre. Die Schriftlichkeit des Liebesbriefs entfernt sich allmählich von einer ausschließlichen Schreibschriftlichkeit. Der Liebesbrief wird mehr und mehr zu einem Sprache-Bild-Text. Die neuen Medien der Liebesschriftlichkeit zeigen eine Mediatisierung auch im Bereich des Liebesdiskurses: neben neuen Liebesbrieftypen, wie dem Flirtbrief, bilden sich neue Liebesbeziehungstypen heraus. Darüber hinaus fungieren die neuen Medien immer schon selbstreflexiv als Metakommunikatoren der Modernität.
Klugheit wird gemeinhin als das Gegenteil von Torheit aufgefasst. Auf diese Weise erfährt sie eine sprachlich vorstrukturierte positive Bewertung und erhält einen ausgezeichneten gesellschaftlichen Status. "Positiv" bedeutet eine Verknüpfung mit spezifischen je gesellschaftlich richtigen Wertmassstäben, die aber in unterschiedlichen Milieus und Regionen durchaus verschieden ausfallen. Diese bilden den impliziten Subtext für die alltägliche Zuschreibung von "Klugheit". Klugheit fokussiert das Verhalten der Menschen, die Handlungen, die Performanz. Klugheit wird denjenigen Personen zugeschrieben, die "das Richtige" tun, und nachdem sie das Richtige getan haben, etabliert sich erst das Kriterium für die Richtigkeit dieser Beurteilung: der Ausgang der Geschichte. Klugheit wird zwar im vornhinein behauptet, stellt sich aber erst im Nachhinein heraus: denn sie misst sich nicht an der vorgeführten Handlung selbst, sondern am Ausgang der "Geschichte". Eine Bauerntochter handelt dann klug, wenn ihre Handlungen zu einem – im Sinne des Erzählers – guten Ende führen, zu einem Happy-End sozusagen. ...
Der Autor beschäftigt sich u. a. mit den Fragen: Welchen Stellenwert haben unsere literarischen Bildungsgüter in der Mediengesellschaft? Stehen Goethe und Schiller, das Dioskurenpaar der deutschen Klassik, noch fest auf dem Weimarer Sockel, oder zerbröselt dieser zum Sanierungsfall, en passant besucht auf Klassenfahrten, von denen nur das ins heimische Bücherregal wandert, was leicht faßlich ist?
We adopt Markert and Nissim (2005)’s approach of using the World Wide Web to resolve cases of coreferent bridging for German and discuss the strength and weaknesses of this approach. As the general approach of using surface patterns to get information on ontological relations between lexical items has only been tried on English, it is also interesting to see whether the approach works for German as well as it does for English and what differences between these languages need to be accounted for. We also present a novel approach for combining several patterns that yields an ensemble that outperforms the best-performing single patterns in terms of both precision and recall.
When a statistical parser is trained on one treebank, one usually tests it on another portion of the same treebank, partly due to the fact that a comparable annotation format is needed for testing. But the user of a parser may not be interested in parsing sentences from the same newspaper all over, or even wants syntactic annotations for a slightly different text type. Gildea (2001) for instance found that a parser trained on the WSJ portion of the Penn Treebank performs less well on the Brown corpus (the subset that is available in the PTB bracketing format) than a parser that has been trained only on the Brown corpus, although the latter one has only half as many sentences as the former. Additionally, a parser trained on both the WSJ and Brown corpora performs less well on the Brown corpus than on the WSJ one. This leads us to the following questions that we would like to address in this paper: - Is there a difference in usefulness of techniques that are used to improve parser performance between the same-corpus and the different-corpus case? - Are different types of parsers (rule-based and statistical) equally sensitive to corpus variation? To achieve this, we compared the quality of the parses of a hand-crafted constraint-based parser and a statistical PCFG-based parser that was trained on a treebank of German newspaper text.
In the past, a divide could be seen between ’deep’ parsers on the one hand, which construct a semantic representation out of their input, but usually have significant coverage problems, and more robust parsers on the other hand, which are usually based on a (statistical) model derived from a treebank and have larger coverage, but leave the problem of semantic interpretation to the user. More recently, approaches have emerged that combine the robustness of datadriven (statistical) models with more detailed linguistic interpretation such that the output could be used for deeper semantic analysis. Cahill et al. (2002) use a PCFG-based parsing model in combination with a set of principles and heuristics to derive functional (f-)structures of Lexical-Functional Grammar (LFG). They show that the derived functional structures have a better quality than those generated by a parser based on a state-of-the-art hand-crafted LFG grammar. Advocates of Dependency Grammar usually point out that dependencies already are a semantically meaningful representation (cf. Menzel, 2003). However, parsers based on dependency grammar normally create underspecified representations with respect to certain phenomena such as coordination, apposition and control structures. In these areas they are too "shallow" to be directly used for semantic interpretation. In this paper, we adopt a similar approach to Cahill et al. (2002) using a dependency-based analysis to derive functional structure, and demonstrate the feasibility of this approach using German data. A major focus of our discussion is on the treatment of coordination and other potentially underspecified structures of the dependency data input. F-structure is one of the two core levels of syntactic representation in LFG (Bresnan, 2001). Independently of surface order, it encodes abstract syntactic functions that constitute predicate argument structure and other dependency relations such as subject, predicate, adjunct, but also further semantic information such as the semantic type of an adjunct (e.g. directional). Normally f-structure is captured as a recursive attribute value matrix, which is isomorphic to a directed graph representation. Figure 5 depicts an example target f-structure. As mentioned earlier, these deeper-level dependency relations can be used to construct logical forms as in the approaches of van Genabith and Crouch (1996), who construct underspecified discourse representations (UDRSs), and Spreyer and Frank (2005), who have robust minimal recursion semantics (RMRS) as their target representation. We therefore think that f-structures are a suitable target representation for automatic syntactic analysis in a larger pipeline of mapping text to interpretation. In this paper, we report on the conversion from dependency structures to fstructure. Firstly, we evaluate the f-structure conversion in isolation, starting from hand-corrected dependencies based on the TüBa-D/Z treebank and Versley (2005)´s conversion. Secondly, we start from tokenized text to evaluate the combined process of automatic parsing (using Foth and Menzel (2006)´s parser) and f-structure conversion. As a test set, we randomly selected 100 sentences from TüBa-D/Z which we annotated using a scheme very close to that of the TiGer Dependency Bank (Forst et al., 2004). In the next section, we sketch dependency analysis, the underlying theory of our input representations, and introduce four different representations of coordination. We also describe Weighted Constraint Dependency Grammar (WCDG), the dependency parsing formalism that we use in our experiments. Section 3 characterises the conversion of dependencies to f-structures. Our evaluation is presented in section 4, and finally, section 5 summarises our results and gives an overview of problems remaining to be solved.