Refine
Year of publication
Document Type
- Preprint (2163) (remove)
Has Fulltext
- yes (2163)
Keywords
- Kollisionen schwerer Ionen (33)
- heavy ion collisions (27)
- Deutsch (23)
- Quark-Gluon-Plasma (14)
- equation of state (13)
- QGP (12)
- heavy-ion collisions (11)
- Kongress (10)
- Syntax (10)
- quark-gluon plasma (10)
Institute
- Physik (1308)
- Frankfurt Institute for Advanced Studies (FIAS) (940)
- Informatik (755)
- Medizin (172)
- Extern (82)
- Biowissenschaften (71)
- Ernst Strüngmann Institut (69)
- Mathematik (48)
- MPI für Hirnforschung (46)
- Psychologie (46)
This paper is one argument for a theory of grammatical relations in Chinese in which there are no grammatical relations beyond semantic roles, and no lexical relation-changing rules. As the passive rule is one of the most common relation changing rules cross-linguistically, in this paper I will address the question of whether or not Mandarin Chinese has lexical passives, that is, passives defined as in Relational Grammar (see for example Perlmutter and Postal 1977) and the early Lexical Functional Grammar (LFG) literature (e.g. Bresnan 1982), where a 2-arc (object) is promoted to a 1-arc (subject).
Thirty-one years ago Tsu-lin Mei (1961) argued against the traditional doctrine that saw the subject-predicate distinction in grammar as parallel to the particular- universal distinction in logic, as he said it was a reflex of an Indo-European bias, and could not be valid, as ‘Chinese ... does not admit a distinction into subject and predicate’ (p. 153). This has not stopped linguists working on Chinese from attempting to define ‘subject’ (and ‘object’) in Chinese. Though a number of linguists have lamented the difficulties in trying to define these concepts for Chinese (see below), most work done on Chinese still assumes that Chinese must have the same grammatical features as Indo-European, such as having a subject and a direct object, though no attempt is made to justify that view. This paper challenges that view and argues that there has been no grammaticalization of syntactic functions in Chinese. The correct assignment of semantic roles to the constituents of a discourse is done by the listener on the basis of the discourse structure and pragmatics (information flow, inference, relevance, and real world knowledge) (cf. Li & Thompson 1978, 1979; LaPolla 1990).
Von der welt louff vnd gestallt (3b) [Anm. 1] - vom Lauf der Welt und ihrem Zustand - handelt ein Werk, das im Zentrum der nachfolgenden Überlegungen stehen soll: die Reimchronik zum Schwaben- bzw. Schweizerkrieg des Hans Lenz vom Jahr 1499. In Form eines fiktiven Gesprächs, einer disputatz (62b) zwischen dem Autor und einem Waldbruder, werden die historische Zeitgeschichte und die damalige politisch-gesellschaftliche Situation gesichtet, geordnet, diskutiert, gedeutet und in größere, insbesondere heilsgeschichtliche Zusammenhänge gebracht. Text und Kontext stehen in diesem Beispiel (wie in der Historiographie ganz allgemein) in besonders offensichtlicher Beziehung zueinander - es leuchtet unmittelbar ein, daß ein solcher Text ohne den geschichtlichen Hintergrund nicht angemessen beurteilt werden kann. Dabei darf allerdings nicht allein danach gefragt werden, wie der Historiograph mit den geschichtlichen Fakten (soweit diese überhaupt objektiv rekonstruiert werden können!) umgeht, es muß auch dem Umfeld des Verfassers selbst und seiner Rezipienten sowie dem Zweck und der Funktion seiner Dichtung Rechnung getragen werden, den literarischen und außerliterarischen Einflüssen und Vorbildern, den Denk- und Argumentationsmustern, kurz: die "Lebenswelt" [Anm. 2] des Textes sollte zu seinem Verständnis im gesellschaftlich-kulturellen Kontext soweit als möglich erschlossen werden.
The argument that I tried to elaborate on in this paper is that the conceptual problem behind the traditional competence/performance distinction does not go away, even if we abandon its original Chomskyan formulation. It returns as the question about the relation between the model of the grammar and the results of empirical investigations – the question of empirical verification The theoretical concept of markedness is argued to be an ideal correlate of gradience. Optimality Theory, being based on markedness, is a promising framework for the task of bridging the gap between model and empirical world. However, this task not only requires a model of grammar, but also a theory of the methods that are chosen in empirical investigations and how their results are interpreted, and a theory of how to derive predictions for these particular empirical investigations from the model. Stochastic Optimality Theory is one possible formulation of a proposal that derives empirical predictions from an OT model. However, I hope to have shown that it is not enough to take frequency distributions and relative acceptabilities at face value, and simply construe some Stochastic OT model that fits the facts. These facts first of all need to be interpreted, and those factors that the grammar has to account for must be sorted out from those about which grammar should have nothing to say. This task, to my mind, is more complicated than the picture that a simplistic application of (not only) Stochastic OT might draw.
The aim of this paper is the exploration of an optimality theoretic architecture for syntax that is guided by the concept of "correspondence": syntax is understood as the mechanism of "translating" underlying representations into a surface form. In minimalism, this surface form is called "Phonological Form" (PF). Both semantic and abstract syntactic information are reflected by the surface form. The empirical domain where this architecture is tested are minimal link effects, especially in the case of "wh"-movement. The OT constraints require the surface form to reflect the underlying semantic and syntactic representations as maximally as possible. The means by which underlying relations and properties are encoded are precedence, adjacency, surface morphology and prosodic structure. Information that is not encoded in one of these ways remains unexpressed, and gets lost unless it is recoverable via the context. Different kinds of information are often expressed by the same means. The resulting conflicts are resolved by the relative ranking of the relevant correspondence constraints.
This paper argues for a particular architecture of OT syntax. This architecture hasthree core features: i) it is bidirectional, the usual production-oriented optimisation (called ‘first optimisation’ here) is accompanied by a second step that checks the recoverability of an underlying form; ii) this underlying form already contains a full-fledged syntactic specification; iii) especially the procedure checking for recoverability makes crucial use of semantic and pragmatic factors. The first section motivates the basic architecture. The second section shows with two examples, how contextual factors are integrated. The third section examines its implications for learning theory, and the fourth section concludes with a broader discussion of the advantages and disadvantages of the proposed model.
Weak function word shift
(2004)
The fact that object shift only affects weak pronouns in mainland Scandinavian is seen as an instance of a more general observation that can be made in all Germanic languages: weak function words tend to avoid the edges of larger prosodic domains. This generalisation has been formulated within Optimality Theory in terms of alignment constraints on prosodic structure by Selkirk (1996) in explaining thedistribution of prosodically strong and weak forms of English functionwords, especially modal verbs, prepositions and pronouns. But a purely phonological account fails to integrate the syntactic licensing conditions for object shift in an appropriate way. The standard semantico-syntactic accounts of object shift, onthe other hand, fail to explain why it is only weak pronouns that undergo object shift. This paper develops an Optimality theoretic model of the syntax-phonology interface which is based on the interaction of syntactic and prosodic factors. The account can successfully be applied to further related phenomena in English and German.
This paper is part of a research project on OT Syntax and the typology of the free relative (FR) construction. It concentrates on the details of an OT analysis and some of its consequences for OT syntax. I will not present a general discussion of the phenomenon and the many controversial issues it is famous for in generative syntax.
Im vorliegenden Artikel geht es um sprachliche Elemente, die in einer Sprache bereits vorhanden sind, als Nonstandard gelten bzw. nicht in anerkannter verbindlicher Weise standardisiert sind und nun in verändertem Gebrauch differenzierend genutzt werden. Der neue Gebrauch hat ein oder mehrere initiale Ereignisse, die – systemorientiert formuliert – an einer oder mehreren Stellen eines Sprachraums auftreten und in einer evolutionären Drift häufiger werden oder verschwinden, bzw. – handlungsorientiert formuliert – von unterschiedlichen Sprechern übernommen, mit neuen Semantiken versehen werden oder unbeachtet bleiben.
Die Driften der Wörter in öffentlichen Räumen sind vielfältig. Neue Wortentwicklungen belegen unterschiedliche Interessen, "chillen" und "dissen" andere als das in der konservativen Züricher Zeitung zuerst erschienene "share-holder-value". Im Folgenden soll eine sinnbezoge Verallgemeinerung unternommen werden, die die Handlungen der Akteure mit der strukturellen Ebene verbindet. Die Veränderungen in den Verwendungen sollen zu strukturellen sozialen und sprachlichen Rahmenbedingungen in Bezug gesetzt werden. Wie werden Neuerungen und Änderungen der Anwendungsbedingungen von Wörtern vor dem Hintergrund des Wissens um die traditionelle Standardsprache und deren soziale Funktion wahrgenommen? Welche Funktionen haben Neologismen in Abgrenzung zu diesem Standard?
Sprachwahl und Sprachwahrnehmung sind im Deutschen unabdingbar geprägt durch das Wissen von einer Standardsprache. Dieses Wissen basiert für die meisten Sprecher auf der Erfahrung, dass in der Schule manche sprachliche Formen als korrekt, andere als falsch bewertet werden, außerdem auf der Tatsache, dass es Fixierungen der Regeln des Standards in Lexika und Grammatiken gibt. Wissen und Anerkennung dieses Standards sind unabhängig davon, dass keine dieser Kodifikationen unumstritten ist, dass viele Sprecher die Regeln nicht genau kennen und dass als Vorbilder anerkannte Personen (Nachrichtensprecher, Journalisten bestimmter Zeitschriften, Lehrer, Literaten u.a.) keineswegs einheitliche Regeln verfolgen. Der Standard ist fest assoziiert mit der Erfahrung einer legitimen Regelhaftigkeit, also mit Ordnung. Verwendung von Nonstandard wird mit Bezug auf diese Ordnung und von ihr unterschieden wahrgenommen. Diese relationale Sicht der Dinge ist sowohl subjektiv als auch intersubjektiv.
Eine Reihe von nicht in Kodifikationen des Standards aufgenommenen sprachlichen Mustern wird im Blick auf ihre Karrieren in verschiedenen mündlichen und schriftlichen Texten in einer Flut von Veröffentlichungen thematisiert, meist in der Hoffnung hier grammatische Entwicklungen und die Basis für eine Orientierung der Grammatikschreibung an der Pragmatik zu entdecken. Im Folgenden soll Sprache nicht „konzeptuell schriftlich“ gedacht und „sozusagen literal idealisiert“ werden. Es soll argumentiert werden für eine einheitliche, mit Sprachgeschichte, ontogenetischem Spracherwerb und Variantenbildung verträgliche Erklärung nicht-standardisierter sprachlicher Muster im Rahmen einer Grammatikalisierungstheorie.
Bern, bis ins 18. Jh. Zentrum der regionalen Großmacht, heute mit nicht ganz 130.000 Einwohnern die viertgrößte Stadt der Schweiz und seit 1848 die Hauptstadt der Schweiz. Auf Grund dieser Ausgangslage würde man erwarten, dass Bern wie andere Städte eine sprachliche Strahlungskraft in die unmittelbare Umgebung aufweist. Entgegen der allgemeinen Vorstellung zeigt sich jedoch in den Karten des Sprachatlas der deutschen Schweiz (SDS) kaum eine der für die Umgebung von Städten typischen sprachgeographische Verbreitungsbilder. So finden sich viele Isoglossen in unmittelbarer Nähe der Stadt Bern: trichter-, keil- oder gar kreisförmige Bündelungen von Isoglossen, die auf eine sprachliche Wirkung der Stadt hindeuten würde, lassen sich kaum nachweisen.
In der deutschsprachigen Schweiz stehen sich gesprochene Mundarten und geschriebene Standardsprache gegenüber. Außer in formellen Situationen wird Mundart gesprochen, und bis vor kurzem wurde nur selten Mundart geschrieben, sondern die hochdeutsche Schriftsprache. Die Chat-Kommunikation zeigt einerseits durch die nicht-zeitversetzte quasi-direkte Kommunikation wesentliche Züge von Mündlichkeit, die zusammen mit der Informalität im Chat den Mundartgebrauch fördert. Andererseits ist das Medium immer noch die Schrift, welche die Domäne der Standardsprache darstellt. Mundart und Standardsprache stehen sich also in Chaträumen in direkter Konkurrenz gegenüber. Der folgende Beitrag analysiert quantitativ und qualitativ das Neben- und Miteinander der beiden Varietäten in Schweizer Chaträumen und untersucht das Vorkommen und die Bedingungen von Code-Alternation und Code-Switches.
Die Sprachen der Städte
(2008)
Die frühen Sprachkarten, für die Georg Wenker Ende des 19. Jh. in über 40.000 Schulorten des deutschen Reiches schriftliche Übersetzungen in die Mundart gesammelt hatte, dokumentieren die Sonderstellung vieler Städte im sprachlichen Raum. Zum Beispiel zeigen Berlin und die nähere Umgebung sprachliche Formen, die sonst erst weiter südlich oder in der Schriftsprache gelten.
Wenn Deutsch geschrieben wird, wird im Allgemeinen die standardsprachliche Form gewählt. King: nei nei nöd eso Häx ..... verschtasch mi wieder falsch :-( *sniff (bluewin.ch, #flirt60plus, 1.10.2004) Elle: HeinEr: öhm jez versteh ich gar nix mehr (Antenne Bayern #flirten40, 16.9.2005) Big: Mu auch niemand verstehen (IRCnet, #mannheim,9.2.2003) Tezo: verstehe (IRCnet, #linux, 7.1.2003) In Büchern, Zeitungen, Zeitschriften und auch im Internet ist die deutsche Standardsprache Standard. Sie ist die für die Schriftlichkeit normierte Varietät, die überregional verständlich sein soll. Diese Standardsprache ist zwar überall ähnlich, aber nicht gleich. So zeigen sich Besonderheiten im Lexikon, in der Wortbildung und vereinzelt in der Grammatik, welche in einer Region üblich sind, in der anderen jedoch nicht, oder die da eine andere Bedeutung tragen. Diese Besonderheiten sind aber nicht an einem Ort einfach falsch, sondern sie stellen regionale Ausprägungen des Standards dar (vgl. dazu das Variantenwörterbuch; Ammon u. a. 2004). ...
Die 15. Arbeitstagung zur alemannischen Dialektologie, zu der die Vorarlberger Landesregierung vom 18.–21.Septemer auf Schloss Hofen im vorarlbergischen Lochau bei Bregenz eingeladen hatte, hat wiederum einen Einblick in unterschiedliche aktuelle Forschungsaspekte der Dialektologie im Südwesten des deutschen Sprachgebiets geboten. Im dicht gedrängten Programm mit einer öffentlichen Präsentation des VALTS und des Tonarchivs der Mundarten Vorarlbergs von EUGEN GABRIEL und ARNO RUOF folgen sich an drei Tagen insgesamt 18 Vorträge, 10 Kurzvorträge, 14 Arbeitsberichte und ein dialektologischer Ausflug in den Bregenzer Wald. Im Folgenden werden die Vorträge in der präsentierten Reihenfolge referiert, während die zahlreichen Arbeitsberichte von Sprachatlanten, Wörter- und Namenbüchern sowie Tondokumentationsstellen nur pauschal erwähnt werden, welche einerseits einen Blick in die laufenden großen und größeren Projekte der alemannischen Dialektologie öffnen und andererseits die Finanzknappheit als übergreifendes Element der Dialektologie offenbaren.
Der folgende Text betrachtet die Varietätenverwendung von Schweizer ChatterInnen und rückt dabei altersspezifische Fragen in den Vordergrund. Im Gegensatz zu vielen Versuchen, an die Sprache Jugendlicher heranzugehen, kommt hier ein quantitativer Ansatz zur Anwendung, der die Sprache der jugendlichen ChatterInnen mit der Sprache von ChatterInnen anderer Generationen vergleicht.
Die Prosodie der Mundarten wurde schon früh als auffälliges und distinktes Merkmal wahrgenommen und in mehreren Arbeiten zur Grammatik des Schweizerdeutschen mittels Musiknoten festgehalten (u. a. J. Vetsch 1910, E. Wipf 1910, K. Schmid 1915, W. Clauss 1927, A. Weber 1948), wobei schon A. Weber (1948, S. 53) anmerkt, "dass sich der musikalische Gang der Rede nicht ohne Gewaltsamkeit mit der üblichen Notenschrift darstellen lässt". Da also eine adäquate Kodierung, eine theoretische Grundlage und die notwendigen phonetischen Instrumente zur Intonationsforschung fehlten, wurden diese ersten Ansätze nicht aus- und weitergeführt. Erst in der Mitte des 20. Jahrhunderts brachte die technische Entwicklung Instrumente zur Messung der Prosodie hervor, die nun durch die Popularisierung der entsprechenden Computerprogramme im Übergang zum 21. Jahrhundert für die linguistische Forschung intensiv und breit genutzt werden können.
In regionalen Schweizer Chaträumen stellt die Mundart mit Anteilen um 80% bis 90% die unmarkierte Varietät dar. Chats bieten somit einen Einblick in die individuell geprägte Verschriftung der Schweizer Dialekte, die sich einerseits regional verschieden präsentiert und andererseits fern von Vereinheitlichungstendenzen liegt. Durch diese Normierungsferne lässt sich aus den Chatdaten in groben Zügen eine Sprachgeographie nachzeichnen, wie sie im Sprachatlas der deutschen Schweiz SDS (1962–1997) festgehalten ist. Hier sollen Reflexe der sprachgeographischen Verteilung in der Verschriftung der flektierten Formen von «haben» nachgezeichnet werden. Neben der grundsätzlichen Bestätigung dieser Struktur zeigen sich in der Analyse auch systematisch Abweichungen, die unter Berücksichtigung der Verschriftungsbarriere Hinweise auf Sprachwandel geben können, die jedoch mit authentischen Daten gesprochener Sprache überprüft werden müssen.
Wer sich einmal in Deutschschweizer IRC-Chatkanälen herumgesehen hat, hat sofort bemerkt, dass neben der Standardsprache häufig Mundart verwendet wird. Eine Analyse der Varietätenverwendung bietet sich an. Es stellt sich die Frage: was bedeutet sprachliche Norm in einem Kommunikationsraum, in dem die Vorgabe, Deutsch zu schreiben, nur heißt nicht Französisch, Italienisch, Türkisch, Serbisch, Portugiesisch usw. zu schreiben, wo also die Standardsprache nur eine der akzeptierten Varietäten ist? Was bedeutet sprachliche Norm, wo Berndeutsch mit /l/-Vokalisierung neben Walliserdeutsch mit archaischen Volltonvokalen in Nebensilben vorkommt, wo für ein standardsprachliches [a:] ‹a, ah, aa, o, oh› oder ‹oo› stehen kann? Der Frage nach einer deskriptiven Norm wird hier nachgegangen, indem Möglichkeiten der Verschriftung einzelner Aspekte aufgezeigt werden und deren Nutzung in regionalen und überregionalen Chaträumen verglichen werden. Aus dem aktuellen Gebrauch wird dann versucht implizite Normen abzuleiten.
Die Sprachsituation der deutschen Schweiz, wo die Mundarten den großen Teil der gesprochenen Sprachrealität darstellen, bietet ein weites Feld für Erforschung der gesprochenen Sprache. Die starke Position der Mundarten und die weitgehend mündliche Überlieferung machen sie für die Sprachwandelforschung interessant. Nachdem die Erforschung von Sprachwandel lange auf der Rekonstruktion gesprochener Sprache aus Schriftzeugnissen beschränkt war, kann seit dem wissenschaftlich reflektierten Festhalten gesprochener Sprache in Transkripten und seit der Möglichkeit zur Tonarchivierung auf historische Zeugnisse gesprochener Sprache zurückgegriffen werden. So kann die primäre Sprachform berücksichtigt werden. Denn obwohl Lautwandel lange der zentrale Bereich der Sprachgeschichtsschreibung war und die Sprachgeschichtsschreibung weitgehend vom "Primat des Sprechens" (Sonderegger 1979, 11) ausgegangen war, musste sie sich lange mit Schriftzeugnissen abfinden, die nur Reflexe gesprochener Sprache darstellten.
In der folgenden Darstellung geht es einerseits darum, an Beispielen aufzuzeigen, inwiefern die schweizerdeutschen Mundarten und die deutsche Standardsprache in Lautung, Formenbildung, Satzbau und Wortschatz auseinandergehen können, andererseits aber immer auch um das Aufweisen von Gemeinsamkeiten. Oft werden nämlich bestimmte Erscheinungen des dialektalen Sprachbaus vorschnell als Eigenarten der Mundart verstanden, obwohl dieselben Erscheinungen auch im gesprochenen Hochdeutschen anzutreffen sind. Somit liegen also häufig nicht Unterschiede zwischen Mundart und Standardsprache vor, sondern Unterschiede zwischen gesprochener Sprache und geschriebener Sprache. [vollständige Überarbeitung für eine zweite Auflage]
Is language the key to number? This article argues that the human language faculty provides the cognitive equipment that enables humans to develop a systematic number concept. Crucially, this concept is based on non-iconic representations that involve relations between relations: relations between numbers are linked with relations between objects. In contrast to this, language-independent numerosity concepts provide only iconic representations. The pattern of forming relations between relations lies at the heart of our language faculty, suggesting that it is language that enables humans to make the step from these iconic representations, which we share with other species, to a generalised concept of number.
Das Interesse an den literarischen Antworten auf den Krieg war in Österreich nicht besonders ausgeprägt, sonst hätte die Literatur zum Krieg einen größeren Stellenwert als sie hatte und hat – bei den Lesern wie bei den Literaturhistorikern. Es gibt zwar Aufsätzen zu einzelnen Werken, doch es existiert – mit Ausnahme einer Monographie zur Dramatik – bis heute keine umfassende Arbeit zum Thema. Die Ausstellung ‚Verbrechen der Wehrmacht’, die sie begleitende wissenschaftliche Debatte und die durch beide ausgelösten öffentlichen Kontroversen haben unseren Blick auf den Zweiten Weltkrieg entscheidend verändert. Sie haben ihn geschärft für das, was den anderen angetan werden sollte und tatsächlich angetan wurde. Das lässt auch eine Lektüre der Literatur über diesen Krieg nicht unberührt. Was ist vom nationalsozialistischen Vernichtungskrieg gegen diese Personengruppen in der österreichischen Literatur sichtbar? Der folgende Bericht bezieht sich auf die unmittelbare Nachkriegszeit bis zum Abschluss der Staatsvertragsverhandlungen 1955. Dieses politische Datum bildet, wie sich zeigen wird, einen auffallenden Einschnitt.
Die unten folgende Stellungnahme wurde dem Herausgeber der Zeitschrift für deutsches Altertum und deutsche Literatur angeboten, um eine Reihe von gravierenden Missverständnissen eines Rezensenten (Jürgen Schulz-Grobert) auszuräumen, die dieser in seiner Besprechung des zweiten Bandes der Sämtlichen Werke Johann Fischarts der Fachwelt gegenüber erkennen ließ. Der Herausgeber der Zeitschrift verweigerte sich einer Diskussion und lehnte den Abdruck unserer Entgegnung ab. Dies ist umso bedauerlicher, als uns der Rezensent den Vorwurf gemacht hat, unsere "Diskussionsbereitschaft [...] [sei] auch in anderen entscheidenden Fragen ausgesprochen begrenzt", was immer er damit meint.
This paper investigates the class of Tree-Tuple MCTAG with Shared Nodes, TT-MCTAG for short, an extension of Tree Adjoining Grammars that has been proposed for natural language processing, in particular for dealing with discontinuities and word order variation in languages such as German. It has been shown that the universal recognition problem for this formalism is NP-hard, but so far it was not known whether the class of languages generated by TT-MCTAG is included in PTIME. We provide a positive answer to this question, using a new characterization of TT-MCTAG.
We present a CYK and an Earley-style algorithm for parsing Range Concatenation Grammar (RCG), using the deductive parsing framework. The characteristic property of the Earley parser is that we use a technique of range boundary constraint propagation to compute the yields of non-terminals as late as possible. Experiments show that, compared to previous approaches, the constraint propagation helps to considerably decrease the number of items in the chart.
Multicomponent Tree Adjoining Grammars (MCTAGs) are a formalism that has been shown to be useful for many natural language applications. The definition of non-local MCTAG however is problematic since it refers to the process of the derivation itself: a simultaneity constraint must be respected concerning the way the members of the elementary tree sets are added. Looking only at the result of a derivation (i.e., the derived tree and the derivation tree), this simultaneity is no longer visible and therefore cannot be checked. I.e., this way of characterizing MCTAG does not allow to abstract away from the concrete order of derivation. In this paper, we propose an alternative definition of MCTAG that characterizes the trees in the tree language of an MCTAG via the properties of the derivation trees (in the underlying TAG) the MCTAG licences. We provide similar characterizations for various types of MCTAG. These characterizations give a better understanding of the formalisms, they allow a more systematic comparison of different types of MCTAG, and, furthermore, they can be exploited for parsing.
Die drei Bereiche, die hier verglichen werden sollen, entsprechen in etwa der überkommenen Trias von Literatur, Musik und bildender Kunst, einer Gliederung, die im Medienzeitalters mit Videos, CDs, Installationen oder Happenings eigentlich obsolet ist. Allerdings geht es hier nur um die Eigenart der Zeichensysteme, auf denen die verschiedenen Bereiche beruhen, nicht um die Werke, die dadurch möglich werden, obgleich natürlich auch die Kunstwerke im emphatischen Sinn, die bedeutenden und die banalen, die großen und die misslungenen Gestaltungen nur möglich und verstehbar sind aufgrund der Zeichen, auf denen sie beruhen.
The mechanism by which the enzyme pyruvate decarboxylase from yeast is activated allosterically has been elucidated. A total of seven three-dimensional structures of the enzyme, of enzyme variants or of enzyme complexes from two yeast species (three of them reported here for the first time) provide detailed atomic resolution snapshots along the activation coordinate. The prime event is the covalent binding of the substrate pyruvate to the side chain of cysteine 221, thus forming a thiohemiketal. This reaction causes the shift of a neighbouring amino acid, which eventually leads to the rigidification of two otherwise flexible loops, where one of the loops provides two histidine residues necessary to complete the enzymatically competent active site architecture. The structural data are complemented and supported by kinetic investigations and binding studies and provide a consistent picture of the structural changes, which occur upon enzyme activation.
We show that loanword adaptation can be understood entirely in terms of phonological and phonetic comprehension and production mechanisms in the first language. We provide explicit accounts of several loanword adaptation phenomena (in Korean) in terms of an Optimality-Theoretic grammar model with the same three levels of representation that are needed to describe L1 phonology: the underlying form, the phonological surface form, and the auditory-phonetic form. The model is bidirectional, i.e., the same constraints and rankings are used by the listener and by the speaker. These constraints and rankings are the same for L1 processing and loanword adaptation.
CONCLUSION The analysis of the exposure measurement problem has shown that the proper measurement of counterparty exposure for portfolios of derivatives transactions is a complex task that cannot be performed without making a lot of simplifying assumptions. Because of the complicated interaction of correlation effects and offsettings from different transactions, the single transaction framework which is currently used by most banks is definitely not capable of accurately determining the portfolio credit risk. When simulation techniques are applied to estimate exposure, the accuracy of exposure estimations can be increased significantly. However, a lot of modelling choices has to be made concerning the valuation of transactions and the stochastic model of underlying market rates. Because the system has to make projections of market rates into the far future, the choice of an appropriate stochastic model for market rate dynamics is crucial in order to prevent unreasonable scenarios. The predominant application of models based on Brownian Motion in today’s bank risk management therefore leads to questionable results in respect to derivatives exposure evaluation.
In this paper, we argue that difficulties in the definition of coreference itself contribute to lower inter-annotator agreement in certain cases. Data from a large referentially annotated corpus serves to corroborate this point, using a quantitative investigation to assess which effects or problems are likely to be the most prominent. Several examples where such problems occur are discussed in more detail, and we then propose a generalisation of Poesio, Reyle and Stevenson’s Justified Sloppiness Hypothesis to provide a unified model for these cases of disagreement and argue that a deeper understanding of the phenomena involved allows to tackle problematic cases in a more principled fashion than would be possible using only pre-theoretic intuitions.
Traditionally, parsers are evaluated against gold standard test data. This can cause problems if there is a mismatch between the data structures and representations used by the parser and the gold standard. A particular case in point is German, for which two treebanks (TiGer and TüBa-D/Z) are available with highly different annotation schemes for the acquisition of (e.g.) PCFG parsers. The differences between the TiGer and TüBa-D/Z annotation schemes make fair and unbiased parser evaluation difficult [7, 9, 12]. The resource (TEPACOC) presented in this paper takes a different approach to parser evaluation: instead of providing evaluation data in a single annotation scheme, TEPACOC uses comparable sentences and their annotations for 5 selected key grammatical phenomena (with 20 sentences each per phenomena) from both TiGer and TüBa-D/Z resources. This provides a 2 times 100 sentence comparable testsuite which allows us to evaluate TiGer-trained parsers against the TiGer part of TEPACOC, and TüBa-D/Z-trained parsers against the TüBa-D/Z part of TEPACOC for key phenomena, instead of comparing them against a single (and potentially biased) gold standard. To overcome the problem of inconsistency in human evaluation and to bridge the gap between the two different annotation schemes, we provide an extensive error classification, which enables us to compare parser output across the two different treebanks. In the remaining part of the paper we present the testsuite and describe the grammatical phenomena covered in the data. We discuss the different annotation strategies used in the two treebanks to encode these phenomena and present our error classification of potential parser errors.
Nous présentons ici différents algorithmes d’analyse pour grammaires à concaténation d’intervalles (Range Concatenation Grammar, RCG), dont un nouvel algorithme de type Earley, dans le paradigme de l’analyse déductive. Notre travail est motivé par l’intérêt porté récemment à ce type de grammaire, et comble un manque dans la littérature existante.
In the recent literature the phenomenon of long distance agreement has become the focus of several studies as it seems to violate certain locality conditions which require that agreeing elements in general stand in clause-mate relationships. In particular, it involves a verb agreeing with a constituent which is located in the verb's clausal complement and hence poses a challenge for theories that assume a strictly local relationship for agreement. In this paper we present empirical evidence from Greek and Romanian for the reality of long distance agreement. Specifically, we focus on raising constructions in these two languages and we show that they do not involve movement but rather instantiate long distance agreement. We further argue that subjunctives allowing long distance agreement lack both a CP layer and semantic Tense. However, since the embedded verb also bears phi-features, these constructions pose a further problem for assumptions that view the presence of phi-features as evidence for the presence of a C layer. Finally, we raise the question of the common properties that these languages have that lead to the presence of long distance agreement.
Die Ressource "Wissen" rückte in den letzten Jahrzehnten als Quelle wissenschaftlicher Innovation immer stärker ins Zentrum des Interesses. Diese Fokussierung mündete in eine Selbstreflexion der Wissenschaft und der wissenschaftlichen Disziplinen: Thematisiert werden vor allem die Art und Weise, wie Wissen gewonnen wird, sowie die damit zusammenhängende Frage nach der Konstruktion von Wissenschaftlichkeit, womit das Bewusstsein gleichzeitig auf die mehr und mehr sich auflösende Abgrenzung zwischen den Disziplinen beziehungsweise zwischen den drei hauptsächlichen Wissenschaftskulturen, von Natur-, Geistes- und Kultur- sowie Sozialwissenschaften gelenkt wird. Innerhalb und außerhalb der Universitäten bildeten und bilden sich nicht immer klar verortbare "trading zones" (Gallison 1997), in denen neue Formen und Techniken der Wissensproduktion und Wissensvermittlung geprüft, geübt und teilweise auch institutionalisiert werden. ...
Distributional approximations to lexical semantics are very useful not only in helping the creation of lexical semantic resources (Kilgariff et al., 2004; Snow et al., 2006), but also when directly applied in tasks that can benefit from large-coverage semantic knowledge such as coreference resolution (Poesio et al., 1998; Gasperin and Vieira, 2004; Versley, 2007), word sense disambiguation (Mc- Carthy et al., 2004) or semantical role labeling (Gordon and Swanson, 2007). We present a model that is built from Webbased corpora using both shallow patterns for grammatical and semantic relations and a window-based approach, using singular value decomposition to decorrelate the feature space which is otherwise too heavily influenced by the skewed topic distribution of Web corpora.
Parsing coordinations
(2009)
The present paper is concerned with statistical parsing of constituent structures in German. The paper presents four experiments that aim at improving parsing performance of coordinate structure: 1) reranking the n-best parses of a PCFG parser, 2) enriching the input to a PCFG parser by gold scopes for any conjunct, 3) reranking the parser output for all possible scopes for conjuncts that are permissible with regard to clause structure. Experiment 4 reranks a combination of parses from experiments 1 and 3. The experiments presented show that n- best parsing combined with reranking improves results by a large margin. Providing the parser with different scope possibilities and reranking the resulting parses results in an increase in F-score from 69.76 for the baseline to 74.69. While the F-score is similar to the one of the first experiment (n-best parsing and reranking), the first experiment results in higher recall (75.48% vs. 73.69%) and the third one in higher precision (75.43% vs. 73.26%). Combining the two methods results in the best result with an F-score of 76.69.
The aim of this paper is to address two main counterarguments raised in Landau (2007) against the movement analysis of Control, and especially against the phenomenon of Backward Control. The paper shows that unlike the situation described in Tsez (Polinsky & Potsdam 2002), Landau's objections do not hold for Greek and Romanian, where all obligatory control verbs exhibit Backward Control. Our results thus provide stronger empirical support for a theoretical approach to Control in terms of Movement, as defended in Hornstein (1999 and subsequent work).
Presupposition
(2007)
On embedded implicatures
(2004)
The Gricean approach explains implicatures by assumptions about the pragmatics of entire utterances. The phenomenon of embedded implicatures remains a challenge for this approach since in such cases apparently implicatures contribute to the truth-conditional content of constituents smaller than utterances. In this paper, I investigate three areas where embedded implicatures seem to differ from implicatures at the utterance level: optionality, epistemic status, and implicated presuppositions. I conclude that the differences between the two kinds of implicatures justify an approach that maintains Gricean assumptions at the utterance level, and assumes a special operator for embedded implicatures.
In der Abteilung Grammatik des Instituts für Deutsche Sprache, Mannheim, wird derzeit ein neues Projekt entwickelt, und zwar das einer Grammatik des Deutschen im europäischen Vergleich (GDE). Dieses Projekt fügt sich ein in die kontrastive Tradition des IDS, ist jedoch andererseits auch in vieler Hinsicht innovativ. Bevor ich das Projekt im Einzelnen vorstelle, versuche ich den Bogen zurück zu den kontrastiven Grammatiken zu schlagen. Gerade die Leserschaft polnischer Germanisten braucht an die Tradition kontrastiver Grammatikschreibung sicher nicht eigens erinnert zu werden. Denn diese Tradition, die untrennbar mit dem Namen Ulrich Engel verknüpft ist, ist gerade erst in der neu erschienenen deutsch-polnischen kontrastiven Grammatik kulminiert. Im Bereich der kontrastiven Grammatiken zu Sprachenpaaren, von denen das Deutsche ein Element ist, verfügt das IDS also über eine vergleichsweise reiche Tradition. Am IDS oder in Kooperation mit dem IDS wurden kontrastive Grammatiken zu den Sprachenpaaren Deutsch – Französisch (Zemb 1978), Deutsch – Serbokroatisch , Deutsch – Spanisch (Cartegena/Gauger 1989), Deutsch – Rumänisch (Engel u.a. 1993) erarbeitet. Zum Sprachenpaar Englisch – Deutsch liegt mit Hawkins 1986 eine typologisch-vergleichende Grammatik vor. Die deutsch-polnische kontrastive Grammatik, die unter der Leitung von Ulrich Engel erarbeitet wurde, ist 1999 erscheinen. Abraham 1994 und Glinz 1994 konfrontieren das Deutsche, mit durchaus unterschiedlicher Akzentsetzung, mit mehreren anderen europäischen Sprachen. An der Berliner Humboldt-Universität laufen derzeit die Vorarbeiten zu einer deutsch-russischen kontrastiven Grammatik (Initiative Wolfgang Gladrow und Michail Kotin). Die Aufgabe einer 'Grammatik des Deutschen im europäischen Kontext' ist also hinlänglich vorbereitet.
Während der Brief in Zeiten von persönlichen Krisen und Konflikten mancherlei Unannehmlichkeiten aus dem Kommunikationsweg räumt, stellt der Kontext Krieg für das Briefeschreiben in vielerlei Hinsicht eine Herausforderung dar. Der Privatbrief (Epistula familiaris) ist in der ersten Hälfte des 20. Jahrhunderts in Westeuropa – das heisst auch zur Zeit des 2. Weltkriegs – das wichtigste Medium informeller Distanzkommunikation, welche im Allgemeinen durch Inoffizialität und Spontaneität, durch Individualität und Vertraulichkeit gekennzeichnet ist. In der Regel ist der Privatbrief im juristischen Sinne nicht verfügbar. Ein Kennzeichen ist somit auch seine Nichtreproduzierbarkeit. Neben der thematischen Offenheit macht sich meist eine stärkere stilistische Freiheit bemerkbar. Zeichen von Flüchtigkeit oder Sorgfalt sind ausser den Formalia des Datums, der Anrede, des Textkörpers und der Unterschrift, über das geschriebene Wort hinaus nonverbale Informationen wie die Lesbarkeit der Schrift, die Wahl des Papiers, Schreibwerkzeug sowie die Länge eines Briefes (vgl. Ermert 1979, Nickisch 1991, Beyer/ Täubrich 1996, Zott 2003). Der Privatbrief wird zwar im graphischen Medium der Schrift realisiert, steht aber stilistisch der konzeptionellen "Mündlichkeit" näher. (Koch/ Oesterreicher 1994, 587) Der private Briefwechsel wird spontan aufgenommen und kann in der Regel ohne Zwang abgebrochen werden (vgl. Zott 2003). ...
Liebesbriefe von Kindern, Jugendlichen und Erwachsenen : eine Textsorte im lebenszeitlichen Wandel
(2003)
Das Alter als soziolinguistische und – mit Bezug auf die Historizität des sozialen Alltags – als sozialhistorische Grösse ist in seiner Wirkung auf die Gestaltung des Liebesbriefs wenig offensichtlich. Unbestritten dürfte aber wohl sein, dass nicht alterslose Menschen einander Liebesbriefe schreiben. Und – Alter prägt, wie dies die hier vorliegende empirische Analyse zeigen wird, die Textsorte Liebesbrief vielleicht stärker als gemeinhin angenommen. Bereits die Briefstellerliteratur der Jahrhundertwende zeigt deutlich eine Altersspezifik der Sprache des Liebesbriefs. ...
Der Liebesbrief des 20. Jahrhunderts ist Ausdruck einer konkreten lebensweltlichen und historisch zu verortenden Praxis der Liebeskommunikation. Liebesbriefe sind Brautbriefe, Liebesbekenntnisse, Berichte aus dem Alltag, Soldatenbriefe, Vereinbarungen von Treffen, E-Mail-Korrespondenzen, Flirtbriefe und Zettelchen – es gibt eine reiche Palette an Funktionen und Typen. Im Hinblick auf eine Geschichte des Liebesbriefs im 20. Jahrhunderts zeigte sich, dass im Liebesbrief neben der Liebeserklärung auch „Beziehungsarbeit“ und besonders aber die Konstruktion von Intimität eine zentrale Rolle spielt. Die Kritik an der Sprache der Liebe und des Liebesbriefs (des 19. Jahrhunderts) kann bereits in den 1920er Jahren beobachtet werden. Zu einem Codewechsel kommt es in Briefen der 1960er Jahre. Die Schriftlichkeit des Liebesbriefs entfernt sich allmählich von einer ausschließlichen Schreibschriftlichkeit. Der Liebesbrief wird mehr und mehr zu einem Sprache-Bild-Text. Die neuen Medien der Liebesschriftlichkeit zeigen eine Mediatisierung auch im Bereich des Liebesdiskurses: neben neuen Liebesbrieftypen, wie dem Flirtbrief, bilden sich neue Liebesbeziehungstypen heraus. Darüber hinaus fungieren die neuen Medien immer schon selbstreflexiv als Metakommunikatoren der Modernität.
Klugheit wird gemeinhin als das Gegenteil von Torheit aufgefasst. Auf diese Weise erfährt sie eine sprachlich vorstrukturierte positive Bewertung und erhält einen ausgezeichneten gesellschaftlichen Status. "Positiv" bedeutet eine Verknüpfung mit spezifischen je gesellschaftlich richtigen Wertmassstäben, die aber in unterschiedlichen Milieus und Regionen durchaus verschieden ausfallen. Diese bilden den impliziten Subtext für die alltägliche Zuschreibung von "Klugheit". Klugheit fokussiert das Verhalten der Menschen, die Handlungen, die Performanz. Klugheit wird denjenigen Personen zugeschrieben, die "das Richtige" tun, und nachdem sie das Richtige getan haben, etabliert sich erst das Kriterium für die Richtigkeit dieser Beurteilung: der Ausgang der Geschichte. Klugheit wird zwar im vornhinein behauptet, stellt sich aber erst im Nachhinein heraus: denn sie misst sich nicht an der vorgeführten Handlung selbst, sondern am Ausgang der "Geschichte". Eine Bauerntochter handelt dann klug, wenn ihre Handlungen zu einem – im Sinne des Erzählers – guten Ende führen, zu einem Happy-End sozusagen. ...
Der Autor beschäftigt sich u. a. mit den Fragen: Welchen Stellenwert haben unsere literarischen Bildungsgüter in der Mediengesellschaft? Stehen Goethe und Schiller, das Dioskurenpaar der deutschen Klassik, noch fest auf dem Weimarer Sockel, oder zerbröselt dieser zum Sanierungsfall, en passant besucht auf Klassenfahrten, von denen nur das ins heimische Bücherregal wandert, was leicht faßlich ist?
Anhand eines Datensatzes von 1.708 Vegetationsaufnahmen aus 154 bayerischen Naturwaldreservaten wurde die realisierte ökologische Nische von 25 Baumarten hinsichtlich Lichtbedarf bzw. Schattentoleranz untersucht. Für jede Baumart wurde die Stetigkeit des Vorkommens in Baumschicht und Verjüngung berechnet. Für jede Aufnahme wurde die dem Bestandesunterwuchs zur Verfügung stehende Lichtmenge durch Berechnung des mittleren ungewichteten Licht-Zeigerwertes (mL) aller vorkommenden Arten (ohne Baumschicht) auf einer Relativskala geschätzt. Für jede 0,5-Einheiten-Stufe von mL wurde die Präferenz jeder Baumart, getrennt nach Baum- (> 5m) und Verjüngungsschicht (< 5m), als Differenz zwischen relativer Häufigkeit der jeweiligen Art und der relativen Häufigkeit aller Aufnahmen in der mL-Stufe im gesamten Datensatz berechnet. Die Präferenzprofile von Baumschicht und Verjüngungsschicht bildeten die Grundlage einer numerischen Klassifikation von 6 lichtökologischen Nischen typen. Diese Typen werden hinsichtlich ihrer Bindung an bestimmte Entwicklungsphasen und Strukturen der natürlichen Walddynamik diskutiert, mit geläufigen Einteilungen der Baumarten verglichen und im Hinblick auf eine Prognose des Verhaltens unter sich ändernden Umweltbedingungen ausgewertet. – Während sich Edellaubbäume des Tilio-Acerion in den Reservaten sehr ähnlich wie Fagus und Abies verhalten, bilden die Baumarten der Eichenmischwälder eine lichtökologische Gruppe mit rückläufiger Verjüngungstendenz. Unter den übrigen Halbschattbaumarten hebt sich eine Gruppe heraus, welche sich in geschlossenen Beständen vorausverjüngt und nach Störung in die Baumschicht vordringt. Pionierbaumarten bleiben in Naturwaldreservaten weitestgehend auf Sonderstandorte, wo ihre Verjüngung viel Licht vorfindet, beschränkt.
So wie sich Orpheus im Hades umwendet, weil er sich versichern will, dass seine Eurydike noch hinter ihm ist, so muss sich heute die Musikpädagogik immer wieder umwenden, um sich zu vergewissern, dass die SchülerInnen ihr folgen. Während Orpheus jedoch die Gattin zum zweiten Mal verliert, besteht im Unterricht die Chance, durch neue Methoden das Interesse für Musik zu stärken. Die Szenische Interpretation von Musiktheater gibt dem „Musiklehrerstand“ die Möglichkeit, durch spielerische Motivation einen Zugang zu den Werken zu schaffen, der eine Zeit lang die „Not und Plage“ der Schule vergessen lässt. SchülerInnen und LehrerInnen verhalten sich anders im Umgang miteinander, werden zu SpielerInnen und SpielleiterInnen, die gemeinsam eine Interpretation der Werke erarbeiten. Wir haben das vorliegende Konzept in verschiedenen SchülerInnen-, StudentInnen- und LehrerInnengruppen durchgeführt - „ein halbes Dutzend Lektionen“ -, bis wir zu dieser Version gekommen sind. Allen Beteiligten gilt unser Dank, besonders den SchülerInnen der Klasse 10a des Goethe-Gymnasiums in Berlin Wilmersdorf und deren Musiklehrer Gero Krüger. In dieser Klasse sind die Fotos entstanden und viele Anregungen der SchülerInnen waren wichtig für die Überarbeitung einzelner Spielverfahren. Die Auseinandersetzung mit der Thematik kann schon in der 8. oder 9. Klasse beginnen, je nach Reifegrad der SchülerInnen. In der Oberstufe bietet es sich dann an, einzelne Themen zu vertiefen oder musikalische Analysen im Anschluss an die Methoden zu erarbeiten.
Kritik der Gewalt : über den Begriff der Gewalt von Walter Benjamin, Albert Camus und Frantz Fanon
(2004)
We adopt Markert and Nissim (2005)’s approach of using the World Wide Web to resolve cases of coreferent bridging for German and discuss the strength and weaknesses of this approach. As the general approach of using surface patterns to get information on ontological relations between lexical items has only been tried on English, it is also interesting to see whether the approach works for German as well as it does for English and what differences between these languages need to be accounted for. We also present a novel approach for combining several patterns that yields an ensemble that outperforms the best-performing single patterns in terms of both precision and recall.
When a statistical parser is trained on one treebank, one usually tests it on another portion of the same treebank, partly due to the fact that a comparable annotation format is needed for testing. But the user of a parser may not be interested in parsing sentences from the same newspaper all over, or even wants syntactic annotations for a slightly different text type. Gildea (2001) for instance found that a parser trained on the WSJ portion of the Penn Treebank performs less well on the Brown corpus (the subset that is available in the PTB bracketing format) than a parser that has been trained only on the Brown corpus, although the latter one has only half as many sentences as the former. Additionally, a parser trained on both the WSJ and Brown corpora performs less well on the Brown corpus than on the WSJ one. This leads us to the following questions that we would like to address in this paper: - Is there a difference in usefulness of techniques that are used to improve parser performance between the same-corpus and the different-corpus case? - Are different types of parsers (rule-based and statistical) equally sensitive to corpus variation? To achieve this, we compared the quality of the parses of a hand-crafted constraint-based parser and a statistical PCFG-based parser that was trained on a treebank of German newspaper text.
In the past, a divide could be seen between ’deep’ parsers on the one hand, which construct a semantic representation out of their input, but usually have significant coverage problems, and more robust parsers on the other hand, which are usually based on a (statistical) model derived from a treebank and have larger coverage, but leave the problem of semantic interpretation to the user. More recently, approaches have emerged that combine the robustness of datadriven (statistical) models with more detailed linguistic interpretation such that the output could be used for deeper semantic analysis. Cahill et al. (2002) use a PCFG-based parsing model in combination with a set of principles and heuristics to derive functional (f-)structures of Lexical-Functional Grammar (LFG). They show that the derived functional structures have a better quality than those generated by a parser based on a state-of-the-art hand-crafted LFG grammar. Advocates of Dependency Grammar usually point out that dependencies already are a semantically meaningful representation (cf. Menzel, 2003). However, parsers based on dependency grammar normally create underspecified representations with respect to certain phenomena such as coordination, apposition and control structures. In these areas they are too "shallow" to be directly used for semantic interpretation. In this paper, we adopt a similar approach to Cahill et al. (2002) using a dependency-based analysis to derive functional structure, and demonstrate the feasibility of this approach using German data. A major focus of our discussion is on the treatment of coordination and other potentially underspecified structures of the dependency data input. F-structure is one of the two core levels of syntactic representation in LFG (Bresnan, 2001). Independently of surface order, it encodes abstract syntactic functions that constitute predicate argument structure and other dependency relations such as subject, predicate, adjunct, but also further semantic information such as the semantic type of an adjunct (e.g. directional). Normally f-structure is captured as a recursive attribute value matrix, which is isomorphic to a directed graph representation. Figure 5 depicts an example target f-structure. As mentioned earlier, these deeper-level dependency relations can be used to construct logical forms as in the approaches of van Genabith and Crouch (1996), who construct underspecified discourse representations (UDRSs), and Spreyer and Frank (2005), who have robust minimal recursion semantics (RMRS) as their target representation. We therefore think that f-structures are a suitable target representation for automatic syntactic analysis in a larger pipeline of mapping text to interpretation. In this paper, we report on the conversion from dependency structures to fstructure. Firstly, we evaluate the f-structure conversion in isolation, starting from hand-corrected dependencies based on the TüBa-D/Z treebank and Versley (2005)´s conversion. Secondly, we start from tokenized text to evaluate the combined process of automatic parsing (using Foth and Menzel (2006)´s parser) and f-structure conversion. As a test set, we randomly selected 100 sentences from TüBa-D/Z which we annotated using a scheme very close to that of the TiGer Dependency Bank (Forst et al., 2004). In the next section, we sketch dependency analysis, the underlying theory of our input representations, and introduce four different representations of coordination. We also describe Weighted Constraint Dependency Grammar (WCDG), the dependency parsing formalism that we use in our experiments. Section 3 characterises the conversion of dependencies to f-structures. Our evaluation is presented in section 4, and finally, section 5 summarises our results and gives an overview of problems remaining to be solved.
Using a qualitative analysis of disagreements from a referentially annotated newspaper corpus, we show that, in coreference annotation, vague referents are prone to greater disagreement. We show how potentially problematic cases can be dealt with in a way that is practical even for larger-scale annotation, considering a real-world example from newspaper text.
In this paper, we investigate the usefulness of a wide range of features for their usefulness in the resolution of nominal coreference, both as hard constraints (i.e. completely removing elements from the list of possible candidates) as well as soft constraints (where a cumulation of violations of soft constraints will make it less likely that a candidate is chosen as the antecedent). We present a state of the art system based on such constraints and weights estimated with a maximum entropy model, using lexical information to resolve cases of coreferent bridging.
The renowned Grimm Dictionary (1854-1961) makes the statement that the German copula sein (to be) is “the most general and colourless of all verbal concepts” (der allgemeinste und farbloseste aller verbalbegriffe). A more concise summary of the linguistic issues surrounding the copula is hardly possible. These two properties (and the latent tension between them!) make copulas a particularly interesting and vexing subject of linguistic research. Copulas appear to be almost colourless, i.e., devoid of any concrete meaning, thus leading to the question of why such expressions exist at all, not only in German but in the majority of the world’s languages. And at the same time copulas presumably provide the best window into the core of verbal concepts thereby telling us what it actually means to be a verb – at least in a language like German or English. While there is a rather rich body of research on copulas in philosophical and formal semantics including several in-depth studies on the copular systems of individual languages, copulas have received comparably little attention from a typological perspective. The monograph of Regina Pustet sets out to fill this gap. She presents an extensive cross-linguistic study of copula usage based on a sample of 154 languages drawn from the language families of the world. The analysis is embedded in the theoretical framework of functional typology. The study aims at uncovering universal principles that govern the distribution of copulas in nominal, adjectival, and verbal predications. Its major objective is the development of a “semantically-based model of copula distribution” (p.62) by means of which the presence vs. absence of copulas can be motivated through the inherent meaning of the lexical items they potentially combine with. Drawing mainly on the work by Givón (1979, 1984) and Croft (1991, 2001), who provide a functional foundation of the traditional parts of speech, Pustet identifies four semantic parameters which, if taken together, are claimed to support substantial generalisations on copula distribution – within a given language as well as crosslinguistically. These parameters are DYNAMICITY, TRANSIENCE, TRANSITIVITY, and DEPENDENCY. Pustet goes on to argue – and this is in fact the driving force behind the overall monograph – that the distributional behaviour of copulas, in turn, yields a useful methodology for developing a general approach to lexical categorization. Thus, in the long run Pustet aims at contributing to a better understanding of the traditional parts of speech, noun, adjective, and verb by defining them in terms of “semantic feature bundles, which can be arranged in [a] coherent semantic similarity space” (p.193).
Since Donald Davidson’s seminal work “The Logical Form of Action Sentences” (1967) event arguments have become an integral component of virtually every semantic theory. Over the past years Davidson´s proposal has been continuously extended such that nowadays event(uality) arguments are generally associated not only with action verbs but with predicates of all sorts. The reasons for such an extension are seldom explicitly justified. Most problematical in this respect is the case of stative expressions. By taking a closer look at copula sentences the present study assesses the legitimacy of stretching the Davidsonian notion of events and discusses its consequences. A careful application of some standard eventuality diagnostics (perception reports, combination with locative modifiers and manner adverbials) as well as some new diagnostics (behavior of certain degree adverbials) reveals that copular expressions do not behave as expected under a Davidsonian perspective: they fail all eventuality tests, regardless of whether they represent stage-level or individual-level predicates. In this respect, copular expressions pattern with stative verbs like know, hate, and resemble, which in turn differ sharply from state verbs like stand, sit, and sleep. The latter pass all of the eventuality tests and therefore qualify as true “Davidsonian state” expressions. On the basis of these empirical observations and taking up ideas of Kim (1969, 1976) and Asher (1993, 2000), an alternative account of copular expressions (and stative verbs) is provided, according to which the copula introduces a referential argument for a temporally bound property exemplification (= “Kimian state”). Considerations on some logical properties, viz. closure conditions and the latent infinite regress of eventualities, suggest that supplementing Davidsonian eventualities with Kimian states may yield not only a more adequate analysis of copula sentences but also a better understanding of eventualities in general.
Davidsonian event semantics has an impressive track record as a framework for natural language analysis. In recent years it has become popular to assume that not only action verbs but predicates of all sorts have an additional event argument. Yet, this hypothesis is not without controversy in particular wrt the particularly challenging case of statives. Maienborn (2003a, 2004) argues that there is a need for distinguishing two kinds of states. While verbs such as sit, stand, sleep refer to eventualities in the sense of Davidson (= Davidsonian states), the states denoted by such stative verbs like know, weigh,and own, as well as any combination of copula plus predicate are of a different ontological type (= Kimian states). Against this background, the present study assesses the two main arguments that have been raised in favour of a Davidsonian approach for statives. These are the combination with certain manner adverbials and Parsons (2000) so-called time travel argument. It will be argued that the manner data which, at first sight, seem to provide evidence for a Davidsonian approach to statives are better analysed as non-compositional reinterpretations triggered by the lack of a regular Davidsonian event argument. As for Parsons´s time travel argument, it turns out that the original version does not supply the kind of support for the Davidsonian approach that Parsons supposed. However, properly adapted, the time travel argument may provide additional evidence for the need of reifying the denotatum of statives, as suggested by the assumption of Kimian states.
“Comments are very welcome!” This basic attitude and the many ways of implementing it contribute immensely to the fascination of engaging in scientific research. I am grateful to Theoretical Linguistics for providing a public platform for this kind of scholarly exchange and I thank all commentators for their thoughtful, stimulating, and often challenging contributions to my target article. My response will address two main issues that are raised by the commentaries. The first issue is shaped by a cluster of questions relating to ontology. The second issue concerns questions of methodology pertaining in particular to the problem of judging data.
Das Zustandspassiv : grammatische Einordnung – Bildungsbeschränkungen – Interpretationsspielraum
(2005)
In recent years, research in parsing has extended in several new directions. One of these directions is concerned with parsing languages other than English. Treebanks have become available for many European languages, but also for Arabic, Chinese, or Japanese. However, it was shown that parsing results on these treebanks depend on the types of treebank annotations used. Another direction in parsing research is the development of dependency parsers. Dependency parsing profits from the non-hierarchical nature of dependency relations, thus lexical information can be included in the parsing process in a much more natural way. Especially machine learning based approaches are very successful (cf. e.g.). The results achieved by these dependency parsers are very competitive although comparisons are difficult because of the differences in annotation. For English, the Penn Treebank has been converted to dependencies. For this version, Nivre et al. report an accuracy rate of 86.3%, as compared to an F-score of 92.1 for Charniaks parser. The Penn Chinese Treebank is also available in a constituent and a dependency representations. The best results reported for parsing experiments with this treebank give an F-score of 81.8 for the constituent version and 79.8% accuracy for the dependency version. The general trend in comparisons between constituent and dependency parsers is that the dependency parser performs slightly worse than the constituent parser. The only exception occurs for German, where F-scores for constituent plus grammatical function parses range between 51.4 and 75.3, depending on the treebank, NEGRA or TüBa-D/Z. The dependency parser based on a converted version of Tüba-D/Z, in contrast, reached an accuracy of 83.4%, i.e. 12 percent points better than the best constituent analysis including grammatical functions.
This paper profiles significant differences in syntactic distribution and differences in word class frequencies for two treebanks of spoken and written German: the TüBa-D/S, a treebank of transliterated spontaneous dialogs, and the TüBa-D/Z treebank of newspaper articles published in the German daily newspaper ´die tageszeitung´(taz). The approach can be used more generally as a means of distinguishing and classifying language corpora of different genres.
This paper presents an approach to the question whether it is possible to construct a parser based on ideas from case-based reasoning. Such a parser would employ a partial analysis of the input sentence to select a (nearly) complete syntax tree and then adapt this tree to the input sentence. The experiments performed on German data from the Tüba-D/Z treebank and the KaRoPars partial parser show that a wide range of levels of generality can be reached, depending on which types of information are used to determine the similarity between input sentence and training sentences. The results are such that it is possible to construct a case-based parser. The optimal setting out of those presented here need to be determined empirically.
Quantitative evaluation of parsers has traditionally centered around the PARSEVAL measures of crossing brackets, (labeled) precision, and (labeled) recall. However, it is well known that these measures do not give an accurate picture of the quality of the parsers output. Furthermore, we will show that they are especially unsuited for partial parsers. In recent years, research has concentrated on dependencybased evaluation measures. We will show in this paper that such a dependency-based evaluation scheme is particularly suitable for partial parsers. TüBa-D, the treebank used here for evaluation, contains all the necessary dependency information so that the conversion of trees into a dependency structure does not have to rely on heuristics. Therefore, the dependency representations are not only reliable, they are also linguistically motivated and can be used for linguistic purposes.
The purpose of this paper is to describe the TüBa-D/Z treebank of written German and to compare it to the independently developed TIGER treebank (Brants et al., 2002). Both treebanks, TIGER and TüBa-D/Z, use an annotation framework that is based on phrase structure grammar and that is enhanced by a level of predicate-argument structure. The comparison between the annotation schemes of the two treebanks focuses on the different treatments of free word order and discontinuous constituents in German as well as on differences in phrase-internal annotation.
The ACL 2008 Workshop on Parsing German features a shared task on parsing German. The goal of the shared task was to find reasons for the radically different behavior of parsers on the different treebanks and between constituent and dependency representations. In this paper, we describe the task and the data sets. In addition, we provide an overview of the test results and a first analysis.
Recent approaches to Word Sense Disambiguation (WSD) generally fall into two classes: (1) information-intensive approaches and (2) information-poor approaches. Our hypothesis is that for memory-based learning (MBL), a reduced amount of data is more beneficial than the full range of features used in the past. Our experiments show that MBL combined with a restricted set of features and a feature selection method that minimizes the feature set leads to competitive results, outperforming all systems that participated in the SENSEVAL-3 competition on the Romanian data. Thus, with this specific method, a tightly controlled feature set improves the accuracy of the classifier, reaching 74.0% in the fine-grained and 78.7% in the coarse-grained evaluation.
Das Chunkparsing bietet einen besonders vielversprechenden Ansatz zum robusten, partiellen Parsing mit dem Ziel einer breiten Datenabdeckung. Ziel beim Chunkparsing ist eine partielle, nicht-rekursive syntaktische Struktur. Dieser extrem effiziente Parsing-Ansatz läßt sich als Kaskade endlicher Transducer realisieren. In diesem Beitrag wird TüSBL vorgestellt, ein System, bei dem die Eingabe aus spontaner, gesprochener Spache besteht, die dem Parser in Form eines Worthypothesengraphen aus einem Spracherkenner zur Verfügung gestellt wird. Chunkparsing ist für eine solche Anwendung besonders geeignet, da es fragmentarische oder nicht wohlgeformte Äußerungen robust behandeln kann. Des weiteren wird eine Baumkonstruktionskomponente vorgestellt, die die partiellen Chunkstrukturen zu vollständigen Bäumen mit grammatischen Funktionen erweitert. Das System wird anhand manuell überprüfter Systemeingaben evaluiert, da sich die üblichen Evaluationsparameter hierfür nicht eignen.
The purpose of this paper is to describe recent developments in the morphological, syntactic, and semantic annotation of the TüBa-D/Z treebank of German. The TüBa-D/Z annotation scheme is derived from the Verbmobil treebank of spoken German [4, 10], but has been extended along various dimensions to accommodate the characteristics of written texts. TüBa-D/Z uses as its data source the "die tageszeitung" (taz) newspaper corpus. The Verbmobil treebank annotation scheme distinguishes four levels of syntactic constituency: the lexical level, the phrasal level, the level of topological fields, and the clausal level. The primary ordering principle of a clause is the inventory of topological fields, which characterize the word order regularities among different clause types of German, and which are widely accepted among descriptive linguists of German [3, 6]. The TüBa-D/Z annotation relies on a context-free backbone (i.e. proper trees without crossing branches) of phrase structure combined with edge labels that specify the grammatical function of the phrase in question. The syntactic annotation scheme of the TüBa-D/Z is described in more detail in [12, 11]. TüBa-D/Z currently comprises approximately 15 000 sentences, with approximately 7 000 sentences being in the correction phase. The latter will be released along with an updated version of the existing treebank before the end of this year. The treebank is available in an XML format, in the NEGRA export format [1] and in the Penn treebank bracketing format. The XML format contains all types of information as described above, the NEGRA export format contains all sentenceinternal information while the Penn treebank format includes only those layers of information that can be expressed as pure tree structures. Over the course of the last year, more fine grained linguistic annotations have been added along the following dimensions: 1. the basic Stuttgart-Tübingen tagset, STTS, [9] labels have been enriched by relevant features of inflectional morphology, 2. named entity information has been encoded as part of the syntactic annotation, and 3. a set of anaphoric and coreference relations has been added to link referentially dependent noun phrases. In the following sections, we will describe each of these innovations in turn and will demonstrate how the additional annotations can be incorporated into one comprehensive annotation scheme.
Part-of-Speech tagging is generally performed by Markov models, based on bigram or trigram models. While Markov models have a strong concentration on the left context of a word, many languages require the inclusion of right context for correct disambiguation. We show for German that the best results are reached by a combination of left and right context. If only left context is available, then changing the direction of analysis and going from right to left improves the results. In a version of MBT (Daelemans et al., 1996) with default parameter settings, the inclusion of the right context improved POS tagging accuracy from 94.00% to 96.08%, thus corroborating our hypothesis. The version with optimized parameters reaches 96.73%.
The definition of similarity between sentences is formulated on the levels of words, POS tags, and chunks (Abney 91; Abney 96). The evaluation of this approach shows that while precision and recall based on the PARSEVAL measures (Black et al. 91) do not reach state of the art Parsers yet (F1=87.19 on syntactic constituents, F1=77.78 including functionargument structure), the parser shows a very reliable performance where function-argument structure is concerned (F1=96.52). The lower F-scores are very often due to unattached constituents.
The problem of vocalization, or diacritization, is essential to many tasks in Arabic NLP. Arabic is generally written without the short vowels, which leads to one written form having several pronunciations with each pronunciation carrying its own meaning(s). In the experiments reported here, we define vocalization as a classification problem in which we decide for each character in the unvocalized word whether it is followed by a short vowel. We investigate the importance of different types of context. Our results show that the combination of using memory-based learning with only a word internal context leads to a word error rate of 6.64%. If a lexical context is added, the results deteriorate slowly.
In syntax, the trend nowadays is towards lexicalized grammar formalisms. It is now widely accepted that dividing words into wordclasses may serve as a laborsaving mechanism - but at the same time, it discards all detailed information on the idiosyncratic behavior of words. And that is exactly the type of information that may be necessary in order to parse a sentence. For learning approaches, however, lexicalized grammars represent a challenge for the very reason that they include so much detailed and specific information, which is difficult to learn. This paper will present an algorithm for learning a link grammar of German. The problem of data sparseness is tackled by using all the available information from partial parses as well as from an existing grammar fragment and a tagger. This is a report about work in progress so there are no representative results available yet.
This paper presents a comparative study of probabilistic treebank parsing of German, using the Negra and TüBa-D/Z treebanks. Experiments with the Stanford parser, which uses a factored PCFG and dependency model, show that, contrary to previous claims for other parsers, lexicalization of PCFG models boosts parsing performance for both treebanks. The experiments also show that there is a big difference in parsing performance, when trained on the Negra and on the TüBa-D/Z treebanks. Parser performance for the models trained on TüBa-D/Z are comparable to parsing results for English with the Stanford parser, when trained on the Penn treebank. This comparison at least suggests that German is not harder to parse than its West-Germanic neighbor language English.
How to compare treebanks
(2008)
Recent years have seen an increasing interest in developing standards for linguistic annotation, with a focus on the interoperability of the resources. This effort, however, requires a profound knowledge of the advantages and disadvantages of linguistic annotation schemes in order to avoid importing the flaws and weaknesses of existing encoding schemes into the new standards. This paper addresses the question how to compare syntactically annotated corpora and gain insights into the usefulness of specific design decisions. We present an exhaustive evaluation of two German treebanks with crucially different encoding schemes. We evaluate three different parsers trained on the two treebanks and compare results using EVALB, the Leaf-Ancestor metric, and a dependency-based evaluation. Furthermore, we present TePaCoC, a new testsuite for the evaluation of parsers on complex German grammatical constructions. The testsuite provides a well thought-out error classification, which enables us to compare parser output for parsers trained on treebanks with different encoding schemes and provides interesting insights into the impact of treebank annotation schemes on specific constructions like PP attachment or non-constituent coordination.
In the last decade, the Penn treebank has become the standard data set for evaluating parsers. The fact that most parsers are solely evaluated on this specific data set leaves the question unanswered how much these results depend on the annotation scheme of the treebank. In this paper, we will investigate the influence which different decisions in the annotation schemes of treebanks have on parsing. The investigation uses the comparison of similar treebanks of German, NEGRA and TüBa-D/Z, which are subsequently modified to allow a comparison of the differences. The results show that deleted unary nodes and a flat phrase structure have a negative influence on parsing quality while a flat clause structure has a positive influence.
Chunk parsing has focused on the recognition of partial constituent structures at the level of individual chunks. Little attention has been paid to the question of how such partial analyses can be combined into larger structures for complete utterances. Such larger structures are not only desirable for a deeper syntactic analysis. They also constitute a necessary prerequisite for assigning function-argument structure. The present paper offers a similaritybased algorithm for assigning functional labels such as subject, object, head, complement, etc. to complete syntactic structures on the basis of prechunked input. The evaluation of the algorithm has concentrated on measuring the quality of functional labels. It was performed on a German and an English treebank using two different annotation schemes at the level of function argument structure. The results of 89.73% correct functional labels for German and 90.40%for English validate the general approach.
In this paper, we investigate the role of sub-optimality in training data for part-of-speech tagging. In particular, we examine to what extent the size of the training corpus and certain types of errors in it affect the performance of the tagger. We distinguish four types of errors: If a word is assigned a wrong tag, this tag can belong to the ambiguity class of the word (i.e. to the set of possible tags for that word) or not; furthermore, the major syntactic category (e.g. "N" or "V") can be correctly assigned (e.g. if a finite verb is classified as an infinitive) or not (e.g. if a verb is classified as a noun). We empirically explore the decrease of performance that each of these error types causes for different sizes of the training set. Our results show that those types of errors that are easier to eliminate have a particularly negative effect on the performance. Thus, it is worthwhile concentrating on the elimination of these types of errors, especially if the training corpus is large.
Prepositional phrase (PP) attachment is one of the major sources for errors in traditional statistical parsers. The reason for that lies in the type of information necessary for resolving structural ambiguities. For parsing, it is assumed that distributional information of parts-of-speech and phrases is sufficient for disambiguation. For PP attachment, in contrast, lexical information is needed. The problem of PP attachment has sparked much interest ever since Hindle and Rooth (1993) formulated the problem in a way that can be easily handled by machine learning approaches: In their approach, PP attachment is reduced to the decision between noun and verb attachment; and the relevant information is reduced to the two possible attachment sites (the noun and the verb) and the preposition of the PP. Brill and Resnik (1994) extended the feature set to the now standard 4-tupel also containing the noun inside the PP. Among many publications on the problem of PP attachment, Volk (2001; 2002) describes the only system for German. He uses a combination of supervised and unsupervised methods. The supervised method is based on the back-off model by Collins and Brooks (1995), the unsupervised part consists of heuristics such as ”If there is a support verb construction present, choose verb attachment”. Volk trains his back-off model on the Negra treebank (Skut et al., 1998) and extracts frequencies for the heuristics from the ”Computerzeitung”. The latter also serves as test data set. Consequently, it is difficult to compare Volk’s results to other results for German, including the results presented here, since not only he uses a combination of supervised and unsupervised learning, but he also performs domain adaptation. Most of the researchers working on PP attachment seem to be satisfied with a PP attachment system; we have found hardly any work on integrating the results of such approaches into actual parsers. The only exceptions are Mehl et al. (1998) and Foth and Menzel (2006), both working with German data. Mehl et al. report a slight improvement of PP attachment from 475 correct PPs out of 681 PPs for the original parser to 481 PPs. Foth and Menzel report an improvement of overall accuracy from 90.7% to 92.2%. Both integrate statistical attachment preferences into a parser. First, we will investigate whether dependency parsing, which generally uses lexical information, shows the same performance on PP attachment as an independent PP attachment classifier does. Then we will investigate an approach that allows the integration of PP attachment information into the output of a parser without having to modify the parser: The results of an independent PP attachment classifier are integrated into the parse of a dependency parser for German in a postprocessing step.
Maschinelles Lernen wird häufig zur effzienten Annotation großer Datenmengen eingesetzt. Die Forschung zu maschinellen Lernverfahren beschränkt sich i.a. darauf unterschiedliche Lernverfahren zu vergelichen oder die optimale größe der Trainingsdaten zu bestimmen. Bisher wurde jedoch nicht untersucht, in wie weit sich linguistisches Wissen bei der Aufgabendefinition positiv auswirken kann. Dies soll hier anhand des Lernens von Base-Nominalphrasen mit drei unterschiedlichen Definitionen untersucht werden. Die Definitionen unterscheiden sich im Grad der linguistisch motivierten Erweiterungen, die zu einer eher praktisch motivierten ersten Definition hinzu kamen. Die Untersuchungen ergaben, dass sich die Anzahl der falsch klasssifizierten Wörter um ein Drittel reduzieren lässt.
This paper reports on the SYN-RA (SYNtax-based Reference Annotation) project, an on-going project of annotating German newspaper texts with referential relations. The project has developed an inventory of anaphoric and coreference relations for German in the context of a unified, XML-based annotation scheme for combining morphological, syntactic, semantic, and anaphoric information. The paper discusses how this unified annotation scheme relates to other formats currently discussed in the literature, in particular the annotation graph model of Bird and Liberman (2001) and the pie-in-thesky scheme for semantic annotation.
Chunk parsing has focused on the recognition of partial constituent structures at the level of individual chunks. Little attention has been paid to the question of how such partial analyses can be combined into larger structures for complete utterances. The TüSBL parser extends current chunk parsing techniques by a tree-construction component that extends partial chunk parses to complete tree structures including recursive phrase structure as well as function-argument structure. TüSBLs tree construction algorithm relies on techniques from memory-based learning that allow similarity-based classification of a given input structure relative to a pre-stored set of tree instances from a fully annotated treebank. A quantitative evaluation of TüSBL has been conducted using a semi-automatically constructed treebank of German that consists of appr. 67,000 fully annotated sentences. The basic PARSEVAL measures were used although they were developed for parsers that have as their main goal a complete analysis that spans the entire input.This runs counter to the basic philosophy underlying TüSBL, which has as its main goal robustness of partially analyzed structures.
This paper provides an overview of current research on a hybrid and robust parsing architecture for the morphological, syntactic and semantic annotation of German text corpora. The novel contribution of this research lies not in the individual parsing modules, each of which relies on state-of-the-art algorithms and techniques. Rather what is new about the present approach is the combination of these modules into a single architecture. This combination provides a means to significantly optimize the performance of each component, resulting in an increased accuracy of annotation.
A lot of interest has recently been paid to constraint-based definitions and extensions of Tree Adjoining Grammars (TAG). Examples are the so-called quasi-trees, D-Tree Grammars and Tree Description Grammars. The latter are grammars consisting of a set of formulars denoting trees. TDGs are derivation based where in each derivation step a conjunction is built of the old formular, a formular of the grammar and additional equivalences between node names of the two formulars. This formalism is more powerfull than TAGs. TDGs offer the advantages of MC-TAG and D-Tree Grammars for natural languages and they allow underspecification. However the problem is that TDGs might be unnecessarily powerfull for natural languages. To solve this problem, in this paper, I will propose a local TDGs, a restricted version of TDGs. Local TDGs still have the advantages of TDGs but they are semilinear and therefore more appropriate for natural languages. First, the notion of the semilinearity is defined. Then local TDGs are introduced, and, finally, semilinearity of local Tree Description Languages is proven.