Refine
Year of publication
- 2006 (2010) (remove)
Document Type
- Article (784)
- Doctoral Thesis (295)
- Part of Periodical (192)
- Part of a Book (158)
- Working Paper (123)
- Review (109)
- Book (108)
- Conference Proceeding (72)
- Report (54)
- Preprint (49)
Language
- German (1363)
- English (585)
- Portuguese (22)
- French (17)
- Multiple languages (10)
- Spanish (5)
- Polish (3)
- Yiddish (3)
- Italian (1)
- mis (1)
Keywords
- Literatur (35)
- Deutsch (32)
- Frankfurt <Main> / Universität (29)
- Rezension (27)
- Thema-Rhema-Gliederung (22)
- Deutschland (21)
- Formale Semantik (20)
- Englisch (18)
- Rezeption (17)
- Syntax (15)
Institute
- Medizin (190)
- Extern (96)
- Biochemie und Chemie (70)
- Physik (69)
- Biowissenschaften (56)
- Rechtswissenschaft (50)
- Präsidium (46)
- Center for Financial Studies (CFS) (44)
- Geschichtswissenschaften (39)
- Gesellschaftswissenschaften (38)
Der vorliegende Beitrag prüft, ob der „Sprachinsel“-Ansatz wirklich geeignet ist, das Problem „Realitätsbereich Deutsch als Minderheitensprache“ sachangemessen zu erkennen, zu erfassen, zu thematisieren, zu beschreiben, zu interpretieren und zu bewerten, indem er verdeutlicht, dass die Metapher der ‘Sprachinsel’ heute mindestens in zweifacher Hinsicht keinen optimalen Ordnungs- und Erklärungsansatz bereitstellen kann. Erstens, weil das derzeitige Kommunikationsprofil von Minderheitengemeinschaften und das aktuelle Gesicht dieser Sprachvarietäten nicht mehr durch eine insulare Abgeschiedenheit, sondern vielmehr durch Zwei- und Mehrsprachigkeit und Sprachen- bzw. Kulturenkontakte bestimmt werden. Zweitens, weil die sog. metaphorischen Konzepte bei der wissenschaftlichen Erkenntnis eine wesentliche Rolle spielen. Daher wäre ein Untersuchungsansatz produktiv, welcher der besonderen aktuellen Dynamik der für die Minderheiten meist charakteristischen mehrsprachigen bzw. mehrkulturigen Konfigurationen und den sprachlichen bzw. kulturellen Austauschprozessen explizit Rechnung trägt. In diesem Zusammenhang wird hier eine interkulturelle (oder transkulturelle) Linguistik als mögliches Paradigma vorgeschlagen.
Der traditionsreiche Kultur-, Kontakt- und Integrationsraum Schlesien stellt eine Region im Überlappungs- und Durchdringungsbereich von Kulturen, Religionen, Sprachen und Nationen dar, wo sich im historischen Verlauf eine spezielle Sensibilität für Probleme und Chancen kultureller und sprachlicher Pluralität sowie für die Geschichtlichkeit und Dynamik multikultureller Zusammenhänge entwickeln konnte. Daher verkörpert er ein besonders wertvolles Erinnerungsgut (vgl. zur Thematik Engel/Honsza 2001 und Lasatowicz 2004). Solche Regionen werden nun mit Blick auf ihre Ressourcen des multikulturellen Gedächtnisses im Zuge von gesamteuropäischen Prozessen – auch im Sinne einer neuen „mentalen Welt“ – zunehmend aufgewertet. Die kulturelle und sprachliche Situation, einschließlich der Sprach gebrauchsstrukturen, ist in derartigen multi-ethnischen Arealen im Spannungsfeld von mehreren Sprachen, Kulturen und Identitäten naturgemäß äußerst vielschichtig. Entsprechend dieser komplexen sprachkommunikativen Realität in Mehrsprachigkeits-Kulturen setzt ihre wissenschaftlich adäquate Erfassung, Beschreibung und Explizierung ein mehrperspektivisches multi-, inter- und transdisziplinäres Herangehen voraus. Denn die Bearbeitung der entsprechend weiten Fragestellungen erfordert einen relevanten Betrachtungsrahmen und eine angepasste Methodologie, die sowohl dem komplexen Gegenstand als auch den Erkenntnisinteressen der Praxis gerecht werden. Müssen doch die Linguisten mit der mannigfaltigen sprachkommunikativen Realität mindestens (a) systemorientiert, (b) soziologisch und (c) „technologisch“ umgehen und sie entsprechend reflektieren können. Da aber die Gesamtthematik – wie sie auch im Titel der Tagung zum Ausdruck kommt – einen etwas sperrigen Gegenstand bildet, konzentriert sich der vorliegende Beitrag lediglich auf einen besonders wichtigen Aspekt. Mithin lautet die erkenntnisleitende Forschungsfrage: Wie kann man inter- bzw. transkulturelle,4 bi- bzw. multilinguale Kommunikationsräume im Kontakt der Kulturen mit den für sie charakteristischen zweisprachigen Diskursmodi (die oft durch verschiedene Ausprägungen von Hybridität gekennzeichnet sind) in disziplinärer Hinsicht sinnvoll analysieren? Also in welchem generellen Verstehensrahmen bzw. unter welchem "Blickwinkel", im Kompetenzbereich welcher linguistischen Teildisziplin, mit welcher Methodologie lassen sich die im Blickpunkt stehenden sprachkommunikativen Konstellationen, bilingualen Sprechhandlungen und entsprechenden Kontakt-, Interaktions-, Überblendungs- und Konvergenzphänomene sachangemessen untersuchen und heuristisch interpretieren? Solche Fragen erlangen m.E. angesichts der aktuellen Fachentwicklung der Sprachwissenschaft zunehmend Relevanz. War doch im Rahmen der kartesischen Sicht noch eine Einheit von Rationalität und Wissenschaft gegeben, ist spätestens seit Thomas Kuhn (1996) klar geworden, dass man es heute mit einem Nach- und Nebeneinander verschiedener (z.T. sogar inkommensurabler) „Paradigmen“ (Kuhn 1996), „Denkstile“ (vgl. Fleck 2002), „disziplinärer Matrizes“ (Kuhn 1977, 392 f.) oder Wissenschaftskulturen als diskursive Terrains zu tun hat.
In the past, a divide could be seen between ’deep’ parsers on the one hand, which construct a semantic representation out of their input, but usually have significant coverage problems, and more robust parsers on the other hand, which are usually based on a (statistical) model derived from a treebank and have larger coverage, but leave the problem of semantic interpretation to the user. More recently, approaches have emerged that combine the robustness of datadriven (statistical) models with more detailed linguistic interpretation such that the output could be used for deeper semantic analysis. Cahill et al. (2002) use a PCFG-based parsing model in combination with a set of principles and heuristics to derive functional (f-)structures of Lexical-Functional Grammar (LFG). They show that the derived functional structures have a better quality than those generated by a parser based on a state-of-the-art hand-crafted LFG grammar. Advocates of Dependency Grammar usually point out that dependencies already are a semantically meaningful representation (cf. Menzel, 2003). However, parsers based on dependency grammar normally create underspecified representations with respect to certain phenomena such as coordination, apposition and control structures. In these areas they are too "shallow" to be directly used for semantic interpretation. In this paper, we adopt a similar approach to Cahill et al. (2002) using a dependency-based analysis to derive functional structure, and demonstrate the feasibility of this approach using German data. A major focus of our discussion is on the treatment of coordination and other potentially underspecified structures of the dependency data input. F-structure is one of the two core levels of syntactic representation in LFG (Bresnan, 2001). Independently of surface order, it encodes abstract syntactic functions that constitute predicate argument structure and other dependency relations such as subject, predicate, adjunct, but also further semantic information such as the semantic type of an adjunct (e.g. directional). Normally f-structure is captured as a recursive attribute value matrix, which is isomorphic to a directed graph representation. Figure 5 depicts an example target f-structure. As mentioned earlier, these deeper-level dependency relations can be used to construct logical forms as in the approaches of van Genabith and Crouch (1996), who construct underspecified discourse representations (UDRSs), and Spreyer and Frank (2005), who have robust minimal recursion semantics (RMRS) as their target representation. We therefore think that f-structures are a suitable target representation for automatic syntactic analysis in a larger pipeline of mapping text to interpretation. In this paper, we report on the conversion from dependency structures to fstructure. Firstly, we evaluate the f-structure conversion in isolation, starting from hand-corrected dependencies based on the TüBa-D/Z treebank and Versley (2005)´s conversion. Secondly, we start from tokenized text to evaluate the combined process of automatic parsing (using Foth and Menzel (2006)´s parser) and f-structure conversion. As a test set, we randomly selected 100 sentences from TüBa-D/Z which we annotated using a scheme very close to that of the TiGer Dependency Bank (Forst et al., 2004). In the next section, we sketch dependency analysis, the underlying theory of our input representations, and introduce four different representations of coordination. We also describe Weighted Constraint Dependency Grammar (WCDG), the dependency parsing formalism that we use in our experiments. Section 3 characterises the conversion of dependencies to f-structures. Our evaluation is presented in section 4, and finally, section 5 summarises our results and gives an overview of problems remaining to be solved.
Using a qualitative analysis of disagreements from a referentially annotated newspaper corpus, we show that, in coreference annotation, vague referents are prone to greater disagreement. We show how potentially problematic cases can be dealt with in a way that is practical even for larger-scale annotation, considering a real-world example from newspaper text.
In this paper, we investigate the usefulness of a wide range of features for their usefulness in the resolution of nominal coreference, both as hard constraints (i.e. completely removing elements from the list of possible candidates) as well as soft constraints (where a cumulation of violations of soft constraints will make it less likely that a candidate is chosen as the antecedent). We present a state of the art system based on such constraints and weights estimated with a maximum entropy model, using lexical information to resolve cases of coreferent bridging.
In recent years, research in parsing has extended in several new directions. One of these directions is concerned with parsing languages other than English. Treebanks have become available for many European languages, but also for Arabic, Chinese, or Japanese. However, it was shown that parsing results on these treebanks depend on the types of treebank annotations used. Another direction in parsing research is the development of dependency parsers. Dependency parsing profits from the non-hierarchical nature of dependency relations, thus lexical information can be included in the parsing process in a much more natural way. Especially machine learning based approaches are very successful (cf. e.g.). The results achieved by these dependency parsers are very competitive although comparisons are difficult because of the differences in annotation. For English, the Penn Treebank has been converted to dependencies. For this version, Nivre et al. report an accuracy rate of 86.3%, as compared to an F-score of 92.1 for Charniaks parser. The Penn Chinese Treebank is also available in a constituent and a dependency representations. The best results reported for parsing experiments with this treebank give an F-score of 81.8 for the constituent version and 79.8% accuracy for the dependency version. The general trend in comparisons between constituent and dependency parsers is that the dependency parser performs slightly worse than the constituent parser. The only exception occurs for German, where F-scores for constituent plus grammatical function parses range between 51.4 and 75.3, depending on the treebank, NEGRA or TüBa-D/Z. The dependency parser based on a converted version of Tüba-D/Z, in contrast, reached an accuracy of 83.4%, i.e. 12 percent points better than the best constituent analysis including grammatical functions.
This paper profiles significant differences in syntactic distribution and differences in word class frequencies for two treebanks of spoken and written German: the TüBa-D/S, a treebank of transliterated spontaneous dialogues, and the TüBa-D/Z treebank of newspaper articles published in the German daily newspaper die tageszeitung´(taz). The approach can be used more generally as a means of distinguishing and classifying language corpora of different genres.
This paper presents an approach to the question whether it is possible to construct a parser based on ideas from case-based reasoning. Such a parser would employ a partial analysis of the input sentence to select a (nearly) complete syntax tree and then adapt this tree to the input sentence. The experiments performed on German data from the Tüba-D/Z treebank and the KaRoPars partial parser show that a wide range of levels of generality can be reached, depending on which types of information are used to determine the similarity between input sentence and training sentences. The results are such that it is possible to construct a case-based parser. The optimal setting out of those presented here need to be determined empirically.
Julia Hansen hat zwischen März und Dezember 2006 Untersuchungen zu Funktion und Struktur der Okklusalflächen in der postcaninen Zahnreihe von Viverriden durchgeführt. Unter verschiedenen Ernährungsregimen bilden Höcker und Täler auf Zähnen, die sich im Gebiss gegenüber stehen, eine Funktionseinheit, mit der Schleichkatzen sowohl in der Lage sind, Früchte zu zerquetschen, als auch den Panzer von Insekten aufzuknacken. In ihrer Studie ist es Frau Hansen gelungen, konstruktive Unterschiede zwischen beiden Nutzungsweisen zu identifizieren. Diese Unterschiede hat sie an verschiedenen fossilen Einzelzähnen der Sammlung Koenigswald überprüft.
Vor dem Hintergrund des globalen Klimawandels und der Diskussion menschlicher Einflussnahme („anthropogener Treibhauseffekt“) ist anhand von Beobachtungsdaten der bodennahen Lufttemperatur und des Niederschlags untersucht worden, welche Strukturen die Klimaveränderungen in Hessen erkennen lassen. Dabei umfasst das betrachtete Gebiet den Bereich 49°- 52° Nord / 7°-11° Ost und schließt somit auch Teilgebiete der angrenzenden Bundesländer mit ein. Zeitlich lag der Schwerpunkt der Betrachtung auf dem Intervall 1951-2000, da aus dieser Zeit bei weitem die meisten Daten verfügbar sind (Temperatur 53, Niederschlag 674 Stationen). Darüber hinaus wurden aber auch Untersuchungen für die Zeit 1901 bis 2000 bzw. 2003 sowie für 30-jährige Subintervalle durchgeführt. Die Analysemethodik umfasst die Berechnung linearer Trends, einschließlich ihrer räumlichen Strukturen (Trendkarten), Aufdeckung von Fluktuationen (spektrale Varianzanalyse), Extremwertanalysen und die Diskussion natürlicher bzw. anthropogener Einflussfaktoren (Signalanalyse mittels multipler schrittweiser Regression). Die aus Tages-, Monats-, jahreszeitlichen und jährlichen Daten gewonnenen Ergebnisse sind überaus vielfältig und heterogen. Für das Flächenmittel Hessen ergibt sich 1951-2000 insgesamt (Jahresdaten) ein Temperaturanstieg von 0,9 °C mit dem Schwerpunkt im Winter (1,6 °C) und der geringsten Erwärmung im Herbst (0,2 °C). 1901-2003 liegen an den erfassten Stationen die jährlichen Erwärmungen bei 0,7 bis 1,8 °C; 30-jährig treten zum Teil auch Abkühlungen auf, insbesondere wenn die regional-jahreszeitlichen bzw. monatlichen Strukturen erfasst werden. Diese Strukturen sind beim Niederschlag noch weit ausgeprägter. Im Flächenmittel Hessen beträgt 1951-2000 der jährliche Niederschlagsanstieg 8,5 %, mit Maxima im Herbst (25 %) und Winter (22 %; Frühling 20%), während im Sommer ein Rückgang um 18 % eingetreten ist (mit Schwerpunkten im Juni und insbesondere August). Bei den Fluktuationen dominieren mittlere Perioden von ca. 2,2, 3,3, 5,5 und 7,5-8 Jahren, beim Niederschlag auch ca. 4,5 Jahre. Der Sonnenfleckenzyklus spiegelt sich in den analysierten Klimadaten nicht wider. Zusammen mit den Extremwerten sorgen diese Fluktuationen für zeitliche Instabilitäten der Klimatrends, insbesondere wenn relativ kurze (z.B. 30-jährige) Zeitabschnitte betrachtet werden. Die wiederum sehr vielfältigen und unterschiedlichen Ergebnisse der Extremwertanalyse spiegeln bei der Temperatur weitgehend die Trends wider, da sich die Streuung der Daten kaum verändert hat: d.h. Zunahme der Überschreitungswahrscheinlichkeit extrem warmer Ereignisse (insbesondere Frühling, überwiegend auch Sommer und Winter, am wenigsten im Herbst) und Abnahme der Unterschreitungswahrscheinlichkeit extrem kalter Ereignisse (dies im Winter bei den Tagesdaten jedoch sehr uneinheitlich). Beim Niederschlag sind die Abnahme extrem feuchter Monate im Sommer und die Zunahme extrem feuchter Tage im Herbst und Winter am auffälligsten. Langfristig folgen daraus ganz markante Änderungen der Jährlichkeiten. So ist beispielsweise 1901-2001 in Alsfeld die Jährlichkeit eines extrem feuchten Winters von 100 auf 5,6 Jahre zurückgegangen, die entsprechende Jährlichkeit eines extrem feuchten Sommers in Bad Camberg dagegen fast bis zur Unmöglichkeit angestiegen. Bei der Ursachendiskussion lässt sich in den Temperaturdaten ein deutlicher anthropogener Einfluss („Treibhauseffekt“) ausfindig machen. Abschließend wird diskutiert, inwieweit es sinnvoll ist, die beobachteten Trends, im Vergleich mit Modellprojektionen, in die Zukunft zu extrapolieren.
This paper presents a comparative study of probabilistic treebank parsing of German, using the Negra and TüBa-D/Z treebanks. Experiments with the Stanford parser, which uses a factored PCFG and dependency model, show that, contrary to previous claims for other parsers, lexicalization of PCFG models boosts parsing performance for both treebanks. The experiments also show that there is a big difference in parsing performance, when trained on the Negra and on the TüBa-D/Z treebanks. Parser performance for the models trained on TüBa-D/Z are comparable to parsing results for English with the Stanford parser, when trained on the Penn treebank. This comparison at least suggests that German is not harder to parse than its West-Germanic neighbor language English.
This report explores the question of compatibility between annotation projects including translating annotation formalisms to each other or to common forms. Compatibility issues are crucial for systems that use the results of multiple annotation projects. We hope that this report will begin a concerted effort in the field to track the compatibility of annotation schemes for part of speech tagging, time annotation, treebanking, role labeling and other phenomena.
Relative quantifier scope in German depends, in contrast to English, very much on word order. The scope possibilities of a quantifier are determined by its surface position, its base position and the type of the quantifier. In this paper we propose a multicomponent analysis for German quantifiers computing the scope of the quantifier, in particular its minimal nuclear scope, depending on the syntactic configuration it occurs in.
Our paper aims at capturing the distribution of negative polarity items (NPIs) within lexicalized Tree Adjoining Grammar (LTAG). The condition under which an NPI can occur in a sentence is for it to be in the scope of a negation with no quantifiers scopally intervening. We model this restriction within a recent framework for LTAG semantics based on semantic unification. The proposed analysis provides features that signal the presence of a negation in the semantics and that specify its scope. We extend our analysis to modelling the interaction of NPI licensing and neg raising constructions.
This paper compares two approaches to computational semantics, namely semantic unification in Lexicalized Tree Adjoining Grammars (LTAG) and Lexical Resource Semantics (LRS) in HPSG. There are striking similarities between the frameworks that make them comparable in many respects. We will exemplify the differences and similarities by looking at several phenomena. We will show, first of all, that many intuitions about the mechanisms of semantic computations can be implemented in similar ways in both frameworks. Secondly, we will identify some aspects in which the frameworks intrinsically differ due to more general differences between the approaches to formal grammar adopted by LTAG and HPSG.
The work presented here addresses the question of how to determine whether a grammar formalism is powerful enough to describe natural languages. The expressive power of a formalism can be characterized in terms of i) the string languages it generates (weak generative capacity (WGC)) or ii) the tree languages it generates (strong generative capacity (SGC)). The notion of WGC is not enough to determine whether a formalism is adequate for natural languages. We argue that even SGC is problematic since the sets of trees a grammar formalism for natural languages should be able to generate is difficult to determine. The concrete syntactic structures assumed for natural languages depend very much on theoretical stipulations and empirical evidence for syntactic structures is rather hard to obtain. Therefore, for lexicalized formalisms, we propose to consider the ability to generate certain strings together with specific predicate argument dependencies as a criterion for adequacy for natural languages.
Die Theorie des sprachlichen Lernens und Lehrens ist bis in die siebziger Jahre des 20. Jahrhunderts hinein eine "Meisterlehre" (Müller-Michaels 1980) gewesen. Große Vorbilder eines Volkes (z.B. Mose), Leiter philosophischer Schulen (z.B. Platon) oder Äbte von Klöstern (z.B. Augustinus) und schließlich staatlich geprüfte Oberstudiendirektoren (z.B. Ulshöfer) beschrieben den jüngeren Kollegen, was sich beim Lehren der Sprache über Jahrzehnte bewährt habe: wie man am besten den Sprachunterricht erteile (Müller 1922, Seidemann 1973, Ulshöfer 1968, Essen 1968). Mit der Etablierung der Sprachdidaktiken an den Universitäten ist das Konzept der "norm-setzenden Handlungswissenschaften" Müller-Michaels 1980, Ivo 1975) entwickelt worden. Der Forscher (nicht mehr als Meister der Praxis ausgewiesen) untersucht die Prozesse des sprachlichen Lehrens und Lernens, indem er im "Feld" des Praktikers Erhebungen anstellt, um anschließend die erhobenen Daten einer Hypothesenprüfung zu unterziehen. Als Handlungsfeld wird besonders die Schule berücksichtigt. Die Methoden der Forschung sind vorwiegend "quasi-experimentell". In der Nachfolge der Sprachtheorie Chomsky´s (Chomsky 1965) sind die experimentellen Ansätze zur Untersuchung des Spracherwerbs, der Spracherwerbsstörung und der betreffenden Interventionen entwickelt worden (de Villiers/ de Villiers 1970, Hörmann 1978). Ort der Untersuchung ist das Labor. Das Design dieser Sprachdidaktik (bzw. Psycholinguistik, Kognitionswissenschaften etc.) ist experimentell (z.B. Herrmann 2004). Alle drei Konzepte stehen sich in vielerlei Hinsicht antagonistisch gegenüber. Sie auseinander zu halten - und andererseits mit Gewinn aufeinander zu beziehen -, gehört zu den Basis-Fähigkeiten der linguosomatischen Berufe und ihrer zugrundeliegenden Theorie (Beispiel Sprachlehrberufe, Phoniatrie, Sprachheil-Sonderpädagogik, psychosomatische Sprachtherapien). Daher sind die signifikanten Gegensätze der drei Konzepte herauszuarbeiten und ihre widerstrebenden Konsequenzen aufeinander zu beziehen.
This paper examines the development of periphrastic constructions involving auxiliary "have" and "be" with a past participle in the history of English, on the basis of parsed electronic corpora. It is argued that the two constructions represented distinct syntactic and semantic structures: while the one with have developed into a true perfect in the course of Middle English, the one with be remained a stative resultative throughout its history. In this way, it is explained why the be construction was rarely or never used in a number of contexts, including past counterfactuals, iteratives, duratives, certain kinds of infinitives and various other utterance types that cannot be characterized as perfects of result. When the construction with have became a true perfect, it was used in such contexts, regardless of the identity of the main verb, leading to the appearance of have with verbs like come which had previously only taken be. Crucially, however, have was not spreading at the expense of be, as the be perfect had never been used in such contexts, but rather at the expense of the old simple past. At least until the end of the Early Modern English period, the shift in the relative frequency of have and be perfects is to be explained in terms of the expansion of the former into new contexts, while the latter remained stable. A formal analysis is proposed, taking as its starting point a comparison with German which shows that the older English be perfect indeed behaves more like the German stative passive than its haben and sein perfects.