Refine
Year of publication
- 2006 (49) (remove)
Document Type
- Preprint (49) (remove)
Has Fulltext
- yes (49)
Is part of the Bibliography
- no (49)
Keywords
- Chatten <Kommunikation> (3)
- Deutsch (3)
- Dialektologie (3)
- Lexicalized Tree Adjoining Grammar (2)
- RHIC (2)
- Schweizerdeutsch (2)
- Syntax (2)
- syntax (2)
- ADD (1)
- African Diaspora (1)
Institute
- Physik (24)
- Frankfurt Institute for Advanced Studies (FIAS) (16)
- Extern (10)
- Informatik (1)
- Medizin (1)
- Sportwissenschaften (1)
- Universitätsbibliothek (1)
- Zentrum für Weiterbildung (1)
Der Workshop "Nationale Spezifika und internationale Aspekte in der Wissenschaftsentwicklung – unter besonderer Berücksichtigung der Narratologie" soll, so die Organisatoren in ihrer Einladung – "Gelegenheit bieten, Bedingungen und Möglichkeiten integrativer Ansätze zur Untersuchung von Wissenschaftsprozessen zu diskutieren und wichtige Faktoren der Wissenschaftsentwicklung zu benennen und kritisch zu beleuchten." Die Produktion, Distribution und Rezeption von Wissenssystemen vollziehe sich, schreiben die Organisatoren, "in unterschiedlichen nationalen und internationalen sozialen Räumen, die sowohl die Form als auch den kognitiven Gehalt von Theorien mitunter stark mitstrukturieren, ihre Durchsetzung begünstigen oder behindern. Das wird besonders deutlich, wenn man Transferprozesse von Theorien verfolgt." Den Begriff des Wissenstransfers, der hier in Anschlag gebracht wird, möchte ich in meinem Beitrag einer terminologischen Klärung zuführen. Dazu möchte ich zunächst einige terminologische Überlegungen über den Status der Teilbegriffe anstellen, aus denen der Begriff zusammengesetzt ist (I.), dann die Verwendung des Begriffs in verschiedenen disziplinären Kontexten beobachten (II.) und schließlich einen Vorschlag für eine differenzierte Verwendung des Begriffs als Analysekategorie der Wissenschaftsentwicklung machen (III).
At present, there are no quantitative, objective methods for diagnosing the Parkinson disease. Existing methods of quantitative analysis by myograms suffer by inaccuracy and patient strain; electronic tablet analysis is limited to the visible drawing, not including the writing forces and hand movements. In our paper we show how handwriting analysis can be obtained by a new electronic pen and new features of the recorded signals. This gives good results for diagnostics. Keywords: Parkinson diagnosis, electronic pen, automatic handwriting analysis
Von der welt louff vnd gestallt (3b) [Anm. 1] - vom Lauf der Welt und ihrem Zustand - handelt ein Werk, das im Zentrum der nachfolgenden Überlegungen stehen soll: die Reimchronik zum Schwaben- bzw. Schweizerkrieg des Hans Lenz vom Jahr 1499. In Form eines fiktiven Gesprächs, einer disputatz (62b) zwischen dem Autor und einem Waldbruder, werden die historische Zeitgeschichte und die damalige politisch-gesellschaftliche Situation gesichtet, geordnet, diskutiert, gedeutet und in größere, insbesondere heilsgeschichtliche Zusammenhänge gebracht. Text und Kontext stehen in diesem Beispiel (wie in der Historiographie ganz allgemein) in besonders offensichtlicher Beziehung zueinander - es leuchtet unmittelbar ein, daß ein solcher Text ohne den geschichtlichen Hintergrund nicht angemessen beurteilt werden kann. Dabei darf allerdings nicht allein danach gefragt werden, wie der Historiograph mit den geschichtlichen Fakten (soweit diese überhaupt objektiv rekonstruiert werden können!) umgeht, es muß auch dem Umfeld des Verfassers selbst und seiner Rezipienten sowie dem Zweck und der Funktion seiner Dichtung Rechnung getragen werden, den literarischen und außerliterarischen Einflüssen und Vorbildern, den Denk- und Argumentationsmustern, kurz: die "Lebenswelt" [Anm. 2] des Textes sollte zu seinem Verständnis im gesellschaftlich-kulturellen Kontext soweit als möglich erschlossen werden.
Die Driften der Wörter in öffentlichen Räumen sind vielfältig. Neue Wortentwicklungen belegen unterschiedliche Interessen, "chillen" und "dissen" andere als das in der konservativen Züricher Zeitung zuerst erschienene "share-holder-value". Im Folgenden soll eine sinnbezoge Verallgemeinerung unternommen werden, die die Handlungen der Akteure mit der strukturellen Ebene verbindet. Die Veränderungen in den Verwendungen sollen zu strukturellen sozialen und sprachlichen Rahmenbedingungen in Bezug gesetzt werden. Wie werden Neuerungen und Änderungen der Anwendungsbedingungen von Wörtern vor dem Hintergrund des Wissens um die traditionelle Standardsprache und deren soziale Funktion wahrgenommen? Welche Funktionen haben Neologismen in Abgrenzung zu diesem Standard?
Eine Reihe von nicht in Kodifikationen des Standards aufgenommenen sprachlichen Mustern wird im Blick auf ihre Karrieren in verschiedenen mündlichen und schriftlichen Texten in einer Flut von Veröffentlichungen thematisiert, meist in der Hoffnung hier grammatische Entwicklungen und die Basis für eine Orientierung der Grammatikschreibung an der Pragmatik zu entdecken. Im Folgenden soll Sprache nicht „konzeptuell schriftlich“ gedacht und „sozusagen literal idealisiert“ werden. Es soll argumentiert werden für eine einheitliche, mit Sprachgeschichte, ontogenetischem Spracherwerb und Variantenbildung verträgliche Erklärung nicht-standardisierter sprachlicher Muster im Rahmen einer Grammatikalisierungstheorie.
Bern, bis ins 18. Jh. Zentrum der regionalen Großmacht, heute mit nicht ganz 130.000 Einwohnern die viertgrößte Stadt der Schweiz und seit 1848 die Hauptstadt der Schweiz. Auf Grund dieser Ausgangslage würde man erwarten, dass Bern wie andere Städte eine sprachliche Strahlungskraft in die unmittelbare Umgebung aufweist. Entgegen der allgemeinen Vorstellung zeigt sich jedoch in den Karten des Sprachatlas der deutschen Schweiz (SDS) kaum eine der für die Umgebung von Städten typischen sprachgeographische Verbreitungsbilder. So finden sich viele Isoglossen in unmittelbarer Nähe der Stadt Bern: trichter-, keil- oder gar kreisförmige Bündelungen von Isoglossen, die auf eine sprachliche Wirkung der Stadt hindeuten würde, lassen sich kaum nachweisen.
Wenn Deutsch geschrieben wird, wird im Allgemeinen die standardsprachliche Form gewählt. King: nei nei nöd eso Häx ..... verschtasch mi wieder falsch :-( *sniff (bluewin.ch, #flirt60plus, 1.10.2004) Elle: HeinEr: öhm jez versteh ich gar nix mehr (Antenne Bayern #flirten40, 16.9.2005) Big: Mu auch niemand verstehen (IRCnet, #mannheim,9.2.2003) Tezo: verstehe (IRCnet, #linux, 7.1.2003) In Büchern, Zeitungen, Zeitschriften und auch im Internet ist die deutsche Standardsprache Standard. Sie ist die für die Schriftlichkeit normierte Varietät, die überregional verständlich sein soll. Diese Standardsprache ist zwar überall ähnlich, aber nicht gleich. So zeigen sich Besonderheiten im Lexikon, in der Wortbildung und vereinzelt in der Grammatik, welche in einer Region üblich sind, in der anderen jedoch nicht, oder die da eine andere Bedeutung tragen. Diese Besonderheiten sind aber nicht an einem Ort einfach falsch, sondern sie stellen regionale Ausprägungen des Standards dar (vgl. dazu das Variantenwörterbuch; Ammon u. a. 2004). ...
Die 15. Arbeitstagung zur alemannischen Dialektologie, zu der die Vorarlberger Landesregierung vom 18.–21.Septemer auf Schloss Hofen im vorarlbergischen Lochau bei Bregenz eingeladen hatte, hat wiederum einen Einblick in unterschiedliche aktuelle Forschungsaspekte der Dialektologie im Südwesten des deutschen Sprachgebiets geboten. Im dicht gedrängten Programm mit einer öffentlichen Präsentation des VALTS und des Tonarchivs der Mundarten Vorarlbergs von EUGEN GABRIEL und ARNO RUOF folgen sich an drei Tagen insgesamt 18 Vorträge, 10 Kurzvorträge, 14 Arbeitsberichte und ein dialektologischer Ausflug in den Bregenzer Wald. Im Folgenden werden die Vorträge in der präsentierten Reihenfolge referiert, während die zahlreichen Arbeitsberichte von Sprachatlanten, Wörter- und Namenbüchern sowie Tondokumentationsstellen nur pauschal erwähnt werden, welche einerseits einen Blick in die laufenden großen und größeren Projekte der alemannischen Dialektologie öffnen und andererseits die Finanzknappheit als übergreifendes Element der Dialektologie offenbaren.
Der folgende Text betrachtet die Varietätenverwendung von Schweizer ChatterInnen und rückt dabei altersspezifische Fragen in den Vordergrund. Im Gegensatz zu vielen Versuchen, an die Sprache Jugendlicher heranzugehen, kommt hier ein quantitativer Ansatz zur Anwendung, der die Sprache der jugendlichen ChatterInnen mit der Sprache von ChatterInnen anderer Generationen vergleicht.
In the past, a divide could be seen between ’deep’ parsers on the one hand, which construct a semantic representation out of their input, but usually have significant coverage problems, and more robust parsers on the other hand, which are usually based on a (statistical) model derived from a treebank and have larger coverage, but leave the problem of semantic interpretation to the user. More recently, approaches have emerged that combine the robustness of datadriven (statistical) models with more detailed linguistic interpretation such that the output could be used for deeper semantic analysis. Cahill et al. (2002) use a PCFG-based parsing model in combination with a set of principles and heuristics to derive functional (f-)structures of Lexical-Functional Grammar (LFG). They show that the derived functional structures have a better quality than those generated by a parser based on a state-of-the-art hand-crafted LFG grammar. Advocates of Dependency Grammar usually point out that dependencies already are a semantically meaningful representation (cf. Menzel, 2003). However, parsers based on dependency grammar normally create underspecified representations with respect to certain phenomena such as coordination, apposition and control structures. In these areas they are too "shallow" to be directly used for semantic interpretation. In this paper, we adopt a similar approach to Cahill et al. (2002) using a dependency-based analysis to derive functional structure, and demonstrate the feasibility of this approach using German data. A major focus of our discussion is on the treatment of coordination and other potentially underspecified structures of the dependency data input. F-structure is one of the two core levels of syntactic representation in LFG (Bresnan, 2001). Independently of surface order, it encodes abstract syntactic functions that constitute predicate argument structure and other dependency relations such as subject, predicate, adjunct, but also further semantic information such as the semantic type of an adjunct (e.g. directional). Normally f-structure is captured as a recursive attribute value matrix, which is isomorphic to a directed graph representation. Figure 5 depicts an example target f-structure. As mentioned earlier, these deeper-level dependency relations can be used to construct logical forms as in the approaches of van Genabith and Crouch (1996), who construct underspecified discourse representations (UDRSs), and Spreyer and Frank (2005), who have robust minimal recursion semantics (RMRS) as their target representation. We therefore think that f-structures are a suitable target representation for automatic syntactic analysis in a larger pipeline of mapping text to interpretation. In this paper, we report on the conversion from dependency structures to fstructure. Firstly, we evaluate the f-structure conversion in isolation, starting from hand-corrected dependencies based on the TüBa-D/Z treebank and Versley (2005)´s conversion. Secondly, we start from tokenized text to evaluate the combined process of automatic parsing (using Foth and Menzel (2006)´s parser) and f-structure conversion. As a test set, we randomly selected 100 sentences from TüBa-D/Z which we annotated using a scheme very close to that of the TiGer Dependency Bank (Forst et al., 2004). In the next section, we sketch dependency analysis, the underlying theory of our input representations, and introduce four different representations of coordination. We also describe Weighted Constraint Dependency Grammar (WCDG), the dependency parsing formalism that we use in our experiments. Section 3 characterises the conversion of dependencies to f-structures. Our evaluation is presented in section 4, and finally, section 5 summarises our results and gives an overview of problems remaining to be solved.
Using a qualitative analysis of disagreements from a referentially annotated newspaper corpus, we show that, in coreference annotation, vague referents are prone to greater disagreement. We show how potentially problematic cases can be dealt with in a way that is practical even for larger-scale annotation, considering a real-world example from newspaper text.
In this paper, we investigate the usefulness of a wide range of features for their usefulness in the resolution of nominal coreference, both as hard constraints (i.e. completely removing elements from the list of possible candidates) as well as soft constraints (where a cumulation of violations of soft constraints will make it less likely that a candidate is chosen as the antecedent). We present a state of the art system based on such constraints and weights estimated with a maximum entropy model, using lexical information to resolve cases of coreferent bridging.
In recent years, research in parsing has extended in several new directions. One of these directions is concerned with parsing languages other than English. Treebanks have become available for many European languages, but also for Arabic, Chinese, or Japanese. However, it was shown that parsing results on these treebanks depend on the types of treebank annotations used. Another direction in parsing research is the development of dependency parsers. Dependency parsing profits from the non-hierarchical nature of dependency relations, thus lexical information can be included in the parsing process in a much more natural way. Especially machine learning based approaches are very successful (cf. e.g.). The results achieved by these dependency parsers are very competitive although comparisons are difficult because of the differences in annotation. For English, the Penn Treebank has been converted to dependencies. For this version, Nivre et al. report an accuracy rate of 86.3%, as compared to an F-score of 92.1 for Charniaks parser. The Penn Chinese Treebank is also available in a constituent and a dependency representations. The best results reported for parsing experiments with this treebank give an F-score of 81.8 for the constituent version and 79.8% accuracy for the dependency version. The general trend in comparisons between constituent and dependency parsers is that the dependency parser performs slightly worse than the constituent parser. The only exception occurs for German, where F-scores for constituent plus grammatical function parses range between 51.4 and 75.3, depending on the treebank, NEGRA or TüBa-D/Z. The dependency parser based on a converted version of Tüba-D/Z, in contrast, reached an accuracy of 83.4%, i.e. 12 percent points better than the best constituent analysis including grammatical functions.
This paper presents an approach to the question whether it is possible to construct a parser based on ideas from case-based reasoning. Such a parser would employ a partial analysis of the input sentence to select a (nearly) complete syntax tree and then adapt this tree to the input sentence. The experiments performed on German data from the Tüba-D/Z treebank and the KaRoPars partial parser show that a wide range of levels of generality can be reached, depending on which types of information are used to determine the similarity between input sentence and training sentences. The results are such that it is possible to construct a case-based parser. The optimal setting out of those presented here need to be determined empirically.
This paper presents a comparative study of probabilistic treebank parsing of German, using the Negra and TüBa-D/Z treebanks. Experiments with the Stanford parser, which uses a factored PCFG and dependency model, show that, contrary to previous claims for other parsers, lexicalization of PCFG models boosts parsing performance for both treebanks. The experiments also show that there is a big difference in parsing performance, when trained on the Negra and on the TüBa-D/Z treebanks. Parser performance for the models trained on TüBa-D/Z are comparable to parsing results for English with the Stanford parser, when trained on the Penn treebank. This comparison at least suggests that German is not harder to parse than its West-Germanic neighbor language English.
Relative quantifier scope in German depends, in contrast to English, very much on word order. The scope possibilities of a quantifier are determined by its surface position, its base position and the type of the quantifier. In this paper we propose a multicomponent analysis for German quantifiers computing the scope of the quantifier, in particular its minimal nuclear scope, depending on the syntactic configuration it occurs in.
Our paper aims at capturing the distribution of negative polarity items (NPIs) within lexicalized Tree Adjoining Grammar (LTAG). The condition under which an NPI can occur in a sentence is for it to be in the scope of a negation with no quantifiers scopally intervening. We model this restriction within a recent framework for LTAG semantics based on semantic unification. The proposed analysis provides features that signal the presence of a negation in the semantics and that specify its scope. We extend our analysis to modelling the interaction of NPI licensing and neg raising constructions.
This paper compares two approaches to computational semantics, namely semantic unification in Lexicalized Tree Adjoining Grammars (LTAG) and Lexical Resource Semantics (LRS) in HPSG. There are striking similarities between the frameworks that make them comparable in many respects. We will exemplify the differences and similarities by looking at several phenomena. We will show, first of all, that many intuitions about the mechanisms of semantic computations can be implemented in similar ways in both frameworks. Secondly, we will identify some aspects in which the frameworks intrinsically differ due to more general differences between the approaches to formal grammar adopted by LTAG and HPSG.
The work presented here addresses the question of how to determine whether a grammar formalism is powerful enough to describe natural languages. The expressive power of a formalism can be characterized in terms of i) the string languages it generates (weak generative capacity (WGC)) or ii) the tree languages it generates (strong generative capacity (SGC)). The notion of WGC is not enough to determine whether a formalism is adequate for natural languages. We argue that even SGC is problematic since the sets of trees a grammar formalism for natural languages should be able to generate is difficult to determine. The concrete syntactic structures assumed for natural languages depend very much on theoretical stipulations and empirical evidence for syntactic structures is rather hard to obtain. Therefore, for lexicalized formalisms, we propose to consider the ability to generate certain strings together with specific predicate argument dependencies as a criterion for adequacy for natural languages.
In the recent literature there is growing interest in the morpho-syntactic encoding of hierarchical effects. The paper investigates one domain where such effects are attested: ergative splits conditioned by person. This type of splits is then compared to hierarchical effects in direct-inverse alternations. On the basis of two case studies (Lummi instantiating an ergative split person language and Passamaquoddy an inverse language) we offer an account that makes no use of hierarchies as a primitive. We propose that the two language types differ as far as the location of person features is concerned. In inverse systems person features are located exclusively in T, while in ergative systems, they are located in T and a particular type of v. A consequence of our analysis is that Case checking in split and inverse systems is guided by the presence/absence of specific phi-features. This in turn provides evidence for a close connection between Case and phi-features, reminiscent of Chomsky’s (2000, 2001) Agree.